Deutschland muss im Jahre 2035 mit etwa 1000 Terawattstunden (TWh) zur Abdeckung seines Energiebedarfes rechnen, sofern die linksgrüne Trallalla bis dahin unser Heimatland nicht vernichtet hat. Aktuell verbrauchte Deutschland ca. 550 TWh im Jahr 2022. Alle normalen Fachleute sind sich einig, dass die grüneZukunft nicht mit erneuerbarer Energie gestaltet werden kann. 11 Mrd. Menschen auf diesem Planeten brauchen Energie, um ihr Leben zu gestalten. Es gibt Länder, die haben es erkannt und investieren in diese Zukunft.
China baut z. B. bereits Prototypen von Thorium-Reaktoren ohne radioaktiven Abfall. Deutschland sollte hier in die Forschung einsteigen, um den Anschluss nicht zu verlieren.
Zumindest sollten ausgebrannte Brennstäbe nicht auf der Erde gebunkert, sondern z. B. mit Raketen einfach in die Sonne geschossen werden. Gibt es dazu keine Ideen? Damit keiner diese Idee torpedieren kann, sollten die Kraftwerke auch gleich in der Umlaufbahn liegen! Der Rest ist Geld * Beschleunigung.
Der Dual-Fluid-Reaktor ist ein Kernreaktor-Konzept mit dem Ziel, die Vorteile des Flüssigsalzreaktors mit denen metall-gekühlter Reaktoren zu kombinieren. Somit sollen die Nachhaltigkeits-, Sicherheits- und Wirtschaftlichkeits-Ziele der sogenannten IV. Generation erreicht werden. Der Witz ist, dass diese Reaktoren alte Brennstäbe in verflüssigter Form verarbeiten.
Neben dieser Variante des Umgangs mit ausgebrannten Brennstäben gibt es die Hoffnung auf Reaktoren, die genau diese Brennstäbe als Futter für ihren Energieerzeugungs-Prozess verbrauchen. Es handelt sich um sog. Dual-Fluid-Reaktoren. Das wäre die Lösung für unsere Altlasten und eine zukunftsfähige Alternative.
Deutschland hat sich mit seiner einseitigen Ausrichtung auf Sonne, Wind und Erdgas in eine Energienot manövriert. Steigende Energiepreise und sinkende Versorgungssicherheit gefährden Wettbewerbsfähigkeit und Wohlstand. Das Festhalten am deutschen Atomausstieg verschärft diese Gefahren und bremst – zusammen mit anhaltender Kohleverstromung – den internationalen Klimaschutz.
So muss man sogar auf den Weltklimarat IPCC verweisen, der die Kernenergie ausdrücklich als ein Instrument des Klimaschutzes bezeichnet. Ebenso ordnet die Europäische Union die Kernenergie als ein Instrument des Klimaschutzes ein. Kernkraftwerke stoßen während des Betriebes kein CO₂ aus, das als klimaschädlich angesehen wird.
Die Fachschaft ist sich einig darüber, dass herkömmliche Uran- und Plutonium-Reaktoren mit Wasserkühlung nicht mehr dem Stand der Technik entsprechen und aufgrund ihrer Risiken nicht mehr gebaut werden sollten. Alternativen stehen in den Startlöchern, als Kernspaltungs- oder Kernfusions-Reaktoren. Es gibt keine andere Wahl. Erneuerbare Energien sind nicht unendlich erneuerbar. Die grüneLüge muss auch auf den Müll der Geschichte.
Kernenergie hat seit ihrer Entdeckung in den 1940er Jahren sowohl positive als auch negative Auswirkungen auf die Welt gehabt. Während die Kernenergie in der Lage ist, große Mengen an Strom zu erzeugen und viele Länder dabei unterstützt hat, ihre Energiebedürfnisse zu decken, ist sie auch mit Risiken wie radioaktiver Verschmutzung und Kernschmelzen verbunden. Trotz dieser Risiken gibt es jedoch auch die Möglichkeit, saubere Kernenergie zu nutzen, die sicherer und umweltfreundlicher ist als herkömmliche Kernenergie.
Kernfusion
Saubere Kernenergie wird oft als „Kernfusion“ bezeichnet, im Gegensatz zur herkömmlichen Kernspaltung, die in den meisten bestehenden Kernkraftwerken verwendet wird. Bei der Kernfusion werden Atomkerne miteinander verschmolzen, um Energie freizusetzen, anstatt dass sie gespalten werden. Der Prozess der Kernfusion findet normalerweise in der Sonne statt und erzeugt große Mengen an Energie, die für Millionen von Jahren ausreicht.
Die Vorteile der Kernfusion als saubere Energiequelle sind zahlreich. Zum einen produziert sie keine Treibhausgase, die zum Klimawandel beitragen könnten. Im Gegensatz zu fossilen Brennstoffen, die bei ihrer Verbrennung Kohlenstoffdioxid freisetzen, ist die Kernfusion eine saubere, kohlenstofffreie Energiequelle. Zweitens ist die Menge an Brennstoff, die für die Kernfusion benötigt wird, relativ gering im Vergleich zu anderen Energiequellen. Ein kleiner Kernfusions-Reaktor könnte genug Energie liefern, um eine ganze Stadt mit Strom zu versorgen, und das alles mit einer sehr geringen Menge an Brennstoff.
Ein weiterer Vorteil der Kernfusion als saubere Energiequelle ist ihre Sicherheit. Im Gegensatz zur Kernspaltung, bei der eine Kernschmelze oder ein Unfall zu katastrophalen Folgen führen kann, ist die Kernfusion eine sehr sichere Energiequelle. Die Technologie ist so konzipiert, dass bei Störungen automatisch ein Abschalten des Reaktors stattfindet. Ferner ist das verwendete Brennstoffmaterial bei der Kernfusion nicht radioaktiv und kann nicht für die Entwicklung von Atomwaffen verwendet werden.
Trotz der vielen Vorteile der Kernfusion gibt es jedoch auch Herausforderungen bei ihrer Umsetzung. Eines der größten Hindernisse ist die Entwicklung einer Technologie, die in der Lage ist, den Fusionsprozess zu kontrollieren und aufrechtzuerhalten. Forscher auf der ganzen Welt arbeiten jedoch hart daran, diese Herausforderungen zu überwinden, und es gibt bereits einige vielversprechende Fortschritte in der Entwicklung von Kernfusions-Reaktoren.
Insgesamt bietet saubere Kernenergie, insbesondere Kernfusion, eine vielversprechende Alternative zu fossilen Brennstoffen und herkömmlicher Kernenergie. Während die Technologie noch in der Entwicklung ist, haben die vielen Vorteile, die sie bietet, das Potenzial, die Art und Weise zu revolutionieren, wie wir Energie produzieren und verbrauchen. Wenn Forscher in der Lage sind, die Herausforderungen zu überwinden und eine zuverlässige Kernfusionsreaktortechnologie zu entwickeln, könnte dies dazu beitragen, den Bedarf an fossilen Brennstoffen zu reduzieren und die Energiesicherheit zu erhöhen.
Ferner ist es wichtig, dass die Entwicklung von Kernfusionstechnologie transparent und sicherheitsorientiert ist. Forschung und Entwicklung sollten unter strengen regulatorischen Rahmenbedingungen stattfinden, um sicherzustellen, dass die Technologie sicher und umweltfreundlich ist. Ein Ansatz gelingt derzeit in Greifswald am Max-Planck-Institut für Plasmaphysik mit dem Wendelstein-Stellarator Wendelstein 7-X.
Insgesamt ist saubere Kernenergie, primär Kernfusion, eine vielversprechende Energiequelle, die das Potenzial hat, eine wichtige Rolle bei der Bekämpfung des Klimawandels zu spielen. Die Technologie befindet sich jedoch noch in der Entwicklung, und es ist wichtig, dass die Forschung und Entwicklung sicher und transparent durchgeführt werden. Eine umfassende Energiestrategie sollte jedoch mehrere saubere Energiequellen beinhalten, um eine nachhaltige Energiezukunft zu gewährleisten.
Diversifikation
Obwohl Kernfusion als saubere Energiequelle viele Vorteile hat, ist es wichtig, weitere erneuerbare Energien zu entwickeln und zu fördern. Es gibt mehrere Gründe, warum dies wichtig ist:
Diversifizierung der Energiequellen: Eine breite Palette von erneuerbaren Energien, wie Wind-, Solar- und Geothermie-Energie, ermöglicht es einer Gesellschaft, ihre Energiequellen zu diversifizieren. Dadurch wird das Risiko minimiert, dass ein Versagen in einer Energiequelle zu einem Energieengpass führt.
Flexibilität und Skalierbarkeit: Erneuerbare Energien können flexibel und skalierbar sein, was bedeutet, dass sie an die Bedürfnisse der Gesellschaft angepasst werden können. Während Kernfusion eine vielversprechende Energiequelle ist, könnte es schwierig sein, sie in einer Vielzahl von Größenordnungen zu skalieren, um den Energiebedarf einer Vielzahl von Gemeinden und Industrien zu decken.
Erschwinglichkeit: Obwohl die Kosten für die Kernfusionstechnologie rückläufig sind, bleibt sie eine relativ teure Energiequelle. Erneuerbare Energien sind im Allgemeinen kosteneffektiver und können dazu beitragen, die Energiekosten für Verbraucher zu senken.
Technologieentwicklung: Die Entwicklung von erneuerbaren Energien hat in den letzten Jahrzehnten rasche Fortschritte gemacht und ermöglicht die Schaffung neuer Arbeitsplätze und die Stärkung von Fähigkeiten in der Technologieentwicklung.
Fazit
Zusammenfassend ist es wichtig, weitere erneuerbare Energien zu entwickeln und zu fördern, auch wenn die Kernfusion als saubere Energiequelle vielversprechend ist. Eine breite Palette von Energiequellen ermöglicht Gesellschaften, ihre Energiequellen zu diversifizieren und an ihre Bedürfnisse anzupassen. Erneuerbare Energien sind oft kosteneffektiver und können dazu beitragen, die Energiekosten für Verbraucher zu senken, während sie gleichzeitig neue Arbeitsplätze und Fähigkeiten im Bereich der Technologieentwicklung schaffen. Aber nehmen wir uns trotzdem ein Beispiel an der Natur und machen es einfach wie die Sonne!
Die Anatomie einer globalen Indoktrination und der Missbrauch der Naturwissenschaft
Dieses Kapitel dient der systematischen Zerlegung des offiziellen Narrativs und belegt die physikalischen Unmöglichkeiten der Treibhaus-Theorie sowie die gezielte Manipulation der Datengrundlage und die chronologischen Fehler der CO₂-These. Es kann keinen Treibhauseffekt ohne Treibhaus geben! Wer etwas anderes behauptet, ist entweder ein Lügner oder eine Sprechpuppe.
1. Die Entmystifizierung des „Treibhauseffekts“
Um die aktuelle Klimadebatte zu verstehen, muss man zunächst den Begriff des „Treibhauseffekts“ entmystifizieren. Der echte Treibhauseffekt, wie wir ihn aus Gewächshäusern, Wintergärten oder einem in der Sonne geparkten Auto kennen, beruht primär auf der Unterdrückung der thermischen Konvektion – also auf einem mechanischen Wärmestau. Die Glasscheibe verhindert physisch, dass die erwärmte Luft aufsteigen und kühlere Luft nachfließen kann. In der Erdatmosphäre gibt es jedoch keine „Glaskuppel“. Die Troposphäre ist nach oben offen, und Wärme wird primär durch gewaltige Luftströmungen (Konvektion) abgeführt. Der Vergleich der Atmosphäre mit einem Glashaus ist daher physikalisch irreführend und ein rein rhetorisches Konstrukt, um eine physikalische Unmöglichkeit plausibel erscheinen zu lassen.
Die Treibhauslüge im Vergleich mit dem echten Nicht-Treibhauseffekt
Diese Grafik visualisiert den fundamentalen Betrug, den das IPCC und die Medien tagtäglich verbreiten. Sie nutzen die falsche Metapher des „Treibhauses“, um eine physikalische Realität zu simulieren, die in der offenen Atmosphäre nicht existiert.
1. Das theoretische Märchen (links): Die Strahlungs-Falle
Dies ist das Modell, das man Ihnen verkauft. Es postuliert eine feste, feste „Glaskuppel“ aus CO₂-Molekülen, die die Infrarotstrahlung staut. Diese Theorie ignoriert die dichteabhängige Thermodynamik und behauptet, eiskaltes CO₂ (-50 °C) in der Stratosphäre könnte die warme Erdoberfläche (+15 °C) durch eine Rückstrahlung (Heizstrahler-Effekt) weiter aufheizen. Das ist ein eklatanter Bruch des 2. Hauptsatzes der Thermodynamik, nach dem Wärme niemals spontan von kalt zu warm fließen kann.
2. Die dichteabhängige Realität (rechts): Die offene Kühlrippe
Unsere Atmosphäre ist nach oben OFFEN. Die Physik ist dichteabhängig:
Zone A (unten: 0-2 km): Der mechanische Wärmeaufstieg. In der dichten Luftmasse absorbiert CO₂ zwar Energie, aber anstatt sie nach unten zu strahlen, transferiert es diese Energiemechanisch (durch Stoßübertragung/Kinetik) an N₂ und O₂. Die Wärme wird am CO₂ vorbei physisch durch Konvektion (aufsteigende warme Luft/Thermik) nach oben abgeleitet. Der 2. Hauptsatz der Thermodynamik regiert hier ungestört.
Zone B (oben: über 2 km): Die Strahlungskühlung. In der dünnen Atmosphäre finden die CO₂-Moleküle kaum noch Stoßpartner. Sie strahlen die Energie daher ausschließlich nach oben in das eiskalte Weltall (-270 °C) ab.
Das finale physikalische Fazit: CO₂ wirkt in der Höhe nicht als Glaskuppel, die Wärme staut, sondern als Kühlrippe, die Wärme in den Weltraum entlässt. Die Metapher des „Treibhauses“ ist ein vorsätzlicher Betrug, der die offene Konvektion und die ozeanische Batterie unterschlägt. Wer behauptet, CO₂ heize die Erde von oben, leugnet die physikalische Zeitachse der Gasdichte.
Der echte Treibhauseffekt im Vergleich mit dem echten Nicht-Treibhauseffekt
Diese Grafik visualisiert den begrifflichen Betrug, den das IPCC und die Medien vorsätzlich nutzen, um die öffentliche Wahrnehmung zu manipulieren. Sie verwenden das Wort „Treibhauseffekt“, obwohl die offene Atmosphäre physikalisch völlig anders funktioniert als ein Glashaus.
1. Das echte Treibhaus (links): Mechanische Sperre
Dies ist die physische Realität. Ein Treibhaus heizt sich nicht durch Strahlung oder Gasphysik auf. Die Sonnenenergie (kurzwellig) passierte das Glas und heizt den Boden auf. Die entstehende warme Luft (Konvektion) steigt physisch auf (rote Pfeile). Die feste Glasplatte wirkt jedoch als mechanische Sperre und verhindert den Aufstieg. Die Wärme wird gezwungen, im Raum zu bleiben. Es gibt keine Konvektion nach außen.
2. Die offene Atmosphäre (rechts): Thermodynamische Kühlung
Unsere Atmosphäre ist nach oben OFFEN. Die Physik ist dichteabhängig:
Zone A (unten: 0-2 km): Der Wärmeaufstieg. In der dichten Luftmasse absorbiert CO₂ zwar Energie, gibt sie aber sofort mechanisch (durch Stoßübertragung/Kinetik) an N₂ und O₂ ab. Die Wärme wird am CO₂ vorbei physisch durch Konvektion (aufsteigende warme Luft/Thermik) nach oben abgeleitet. Der 2. Hauptsatz der Thermodynamik regiert hier ungestört.
Zone B (oben: über 2 km): Die Strahlungskühlung. In der dünnen Stratosphäre finden die CO₂-Moleküle kaum noch Stoßpartner. Sie strahlen die Energie daher ausschließlich nach oben in das eiskalte Weltall (-270 °C) ab.
Das finale physikalische Fazit: Die Metapher des „Treibhauses“ für die offene Atmosphäre ist ein physikalischer Unsinn. Im echten Treibhaus wird die Konvektion mechanisch gestaut. In der offenen Atmosphäre wird Wärme mechanisch abgeleitet. CO₂ wirkt in der Höhe als Kühlrippe, die das System entlastet, statt es von oben zu stauen. Wer diesen fundamentalen Unterschied leugnet, leugnet die physikalische Realität der Gasdichte.
2. Das IPCC: Eine politische NGO im Gewand der Wissenschaft
Das „Intergovernmental Panel on Climate Change“ (IPCC) wird in den Medien oft als der „Weltklimarat“ bezeichnet, was Neutralität suggeriert. In Wahrheit ist es eine politische NGO im Auftrag der Regierungen.
Selektive Forschung: Das IPCC betreibt keine eigene Forschung. Sein Mandat besteht darin, Literatur zu sichten, die den anthropogenen Klimawandel stützt. Forscher werden nicht nach Brillanz, sondern nach Haltung ausgewählt.
Der 97%-Mythos: Die oft zitierte Zahl von 97 % Einigkeit unter Wissenschaftlern ist eine gezielte Falschinformation. Sie basiert auf Studien, die lediglich die Arbeiten von Klimaforschern filterten, die bereits von staatlichen Geldern abhängig sind. Es sind 97 % derer, die vom System bezahlt werden.
Die Zusammenfassung für Entscheidungsträger (SPM): Während die technischen Berichte oft noch wissenschaftliche Unsicherheiten einräumen, wird die „Zusammenfassung für Politiker“ von Regierungsvertretern Wort für Wort verhandelt. Hier wird Wissenschaft durch politische Zielsetzung ersetzt.
Die Ignoranz der Moderne – Meyers Konversations-Lexikon (1890)
In den Standard-Enzyklopädien des späten 19. Jahrhunderts wird der CO₂-Anteil der Atmosphäre bereits mit 0,04 % angegeben. Das ist exakt der gleiche Wert wie heute (400 ppm). Dies belegt zweifelsfrei, dass es seit über 130 Jahren überhaupt keine relevante anthropogene Änderung der Konzentration gegeben hat. Der behauptete drastische Anstieg von 280 auf 420 ppm ist ein statistisches Konstrukt, das auf der selektiven Auswahl von Daten beruht. Sog. Faktenchecker unterstellen der damaligen Wissenschaft Ungenauigkeit. Es ist nicht zu fassen, wie diese linksgrünen Rüpel die Wissenschaft dieser Epoche, die unser Land hat aufblühen lassen, mit Füßen treten.
Meyers Konversationslexikon 1888 1
Meyers Konversationslexikon 1888 2
Meyers Konversationslexikon 1888 3
Die Réaumur-Unterschlagung
Um die heutige Epoche als „wärmste seit Aufzeichnungsbeginn“ zu verkaufen, muss die offizielle Klimaforschung die Temperaturen der Vergangenheit künstlich absenken. Neben statistischen Glättungen (siehe Bild 2) wird hierzu ein handfester physikalischer Betrug bei der Übernahme historischer Daten angewandt: Die systematische Unterschlagung der Réaumur-Skala.
Bis zum Jahr 1901 wurde die Temperatur in weiten Teilen Europas in Réaumur gemessen (°R = 1,25 °C). Historische Wetteraufzeichnungen von 1846 nennen Temperaturen von über 37 °R – das entspricht 46,25 °C. Diese massiven historischen Hitzewellen werden von heutigen Institutionen und „Faktencheckern“ systematisch verschwiegen oder unterschlagen, um die heutigen Sommer als „beispiellose Rekorde“ zu verkaufen.
1. Die mathematische Hebelwirkung
Bis weit in das 19. Jahrhundert hinein war in Europa (insbesondere in Deutschland, Frankreich und Russland) die Réaumur-Skala (°Ré) der Standard für wissenschaftliche Temperaturmessungen. Die Umrechnung in die heute übliche Celsius-Skala ist physikalisch exakt definiert:
1 °Ré = 1,25 °C
Das bedeutet zwingend: Ein numerischer Wert auf der Réaumur-Skala ist immer niedriger als der entsprechende physikalische Wert in Celsius.
Beispiel: Zeigte ein Thermometer im Jahr 1850 einen Wert von 12,0 °Ré, so entspricht dies physikalisch exakt 15,0 °C.
2. Der methodische Betrug: Die 1:1-Übernahme
Der Vorwurf der Datenmanipulation wiegt schwer: In den globalen Temperaturdatensätzen (wie GISS oder HadCRUT) wurden historische Stationsdaten aus dem 18. und 19. Jahrhundert oft 1:1 übernommen, ohne die notwendige Umrechnung von Réaumur in Celsius vorzunehmen.
Wenn ein historischer Messwert von 12,0 °Ré einfach als 12,0 °C in eine moderne Statistik eingetragen wird, „verschwinden“ auf dem Papier rechnerisch 3,0 Grad Celsius an tatsächlicher Wärme.
Da heutige Vergleichswerte korrekt in Celsius gemessen werden (z. B. 15,0 °C), suggeriert die resultierende Grafik eine dramatische Erwärmung von 3 Grad, obwohl die physikalische Temperatur über 170 Jahre absolut identisch geblieben ist.
3. Systematik statt Versehen
Dass es sich hierbei nicht um Flüchtigkeitsfehler, sondern um vorsätzliche Täuschung handelt, belegen drei Fakten:
Einseitigkeit: Die „vergeßene“ Umrechnung tritt fast ausschließlich bei historischen Daten auf. Dies dient dazu, die Vergangenheit „kalt zu rechnen“, um den heutigen Temperaturverlauf steiler erscheinen zu lassen.
Quellenblindheit: Die Original-Logbücher alter Wetterstationen (wie z. B. Hohenpeißenberg) weisen die Einheit °Ré explizit aus. Ein qualifizierter Klimatologe kann diesen Umstand nicht übersehen.
Konstrukt der Erwärmung: Ohne diesen massiven Einheiten-Betrug ließen sich viele der behaupteten Temperaturanstiege seit der vorindustriellen Zeit mathematisch nicht halten.
Die Reamur-Unterschlagung
Das Fazit für das Manifest:
Die Réaumur-Unterschlagung ist der Beweis für eine bewusste Fälschung der Temperaturhistorie. Wer physikalische Einheiten missachtet, um statistische Kurven zu manipulieren, hat den Boden der Wissenschaft verlassen. Die behauptete „beispiellose Erwärmung“ ist zu einem erheblichen Teil kein klimatisches Ereignis, sondern ein Produkt schlichter mathematischer Unterschlagung.
„Heiße Sommer“ Aus dem Leeuwarder Courant vom 28.07.1846! Hinweis: Die in diesem Zeitungsbericht angegebenen Temperaturen wurden in Reaumur gemessen. Beispiel: 34 Grad Reaumur = 42,5 Grad Celsius
Das Weglassen von historischen Beweisen, um das grüne Narrativ nicht zu stören, ist eine Tatsache. Ein Zeitungsartikel zum Thema „warme Sommer“ von 1846 stellt chronologisch Hitzeereignisse der Vergangenheit dar. Die Temperaturen sind in Reaumur angegeben, weil es Grad Celsius einfach damals noch nicht gab. Diese wurde erst 1901 Standard in Europa.
4. Die Hockeyschläger-Täuschung und das unterschlagene Erbe
Um die CO₂-Theorie als „unumstößlich“ zu verkaufen, wurde der sogenannte Hockeyschläger-Graph erfunden. Er suggeriert eine jahrtausendelange Temperatur-Stagnation, die plötzlich im 19. Jahrhundert steil nach oben schießt. Doch diese Grafik basiert auf einem doppelten Betrug: Erstens wurde die Mittelalterliche Warmzeit (MWP) statistisch herausgeglättet, und zweitens wird die physikalische Konstante der 800-jährigen Verzögerung ignoriert. Wenn wir den Faktor Zeit und die ozeanische Trägheit korrekt einberechnen, wird klar: Der heutige CO₂-Anstieg ist kein Beweis für menschliche Schuld, sondern das zwangsläufige Symptom einer natürlichen Erwärmung (MWP), die stattfand, lange bevor die Industrialisierung begann. Da CO₂ der Temperatur mit ca. 800 Jahren Verspätung folgt (nachgewiesen in den Vostok-Eiskernen), kann der Anstieg seit 1850 unmöglich durch den Menschen verursacht sein. Er ist die verspätete Reaktion auf das Mittelalter.
Der offizielle Betrug (links): Zeigt das IPCC-Narrativ, bei dem die CO₂-Konzentration (rot) und die Temperatur (blau) ohne jede Verzögerung parallel ansteigen. Eine vergrößerte Detailansicht entlarvt den logischen Fehlschluss „KORRELATION = KAUSALITÄT?“ mit dem expliziten Hinweis: „FEHLER: Man setzt voraus, dass CO₂ die Temperatur steuert.“
Die physikalische Realität (rechts): Verwendet die unverfälschten Wostok-Eiskern-Daten. Hier wird deutlich sichtbar, dass die Temperatur (blau) bei jedem Klimaumschwung der letzten 100.000 Jahre zuerst ansteigt.
Die 800-Jahre-Verzögerung: Eine vergrößerte Detailansicht (unten rechts) fokussiert auf den Zeitverzug (Time-Lag). Sie zeigt die präzise chronologische Lücke: „800 JAHRE CO₂-VERZÖGERUNG (PASSIVER BEOBACHTER).“ Ein Textkasten stellt unmissverständlich klar: „CO₂ FOLGT DER TEMPERATUR.“
Der ozeanische Motor (Henry-Gesetz): Ein Querschnitt des Ozeans (rechts unten) visualisiert die ozeanische Batterie. Ein hervorgehobenes Textfeld erklärt: „HENRY-GESETZ: Warmes Wasser kann weniger CO₂ binden. Die Ozeane gasen heute zeitversetzt das aus, was sie vor Jahrhunderten durch solare Erwärmung gespeichert haben.“
Der Beweis
Die folgende Grafik zeigt zwei Kurven im Vergleich über den Zeitraum von 800 n. Chr. bis heute.
1. Die Kurve der Wahrheit (Blau/Grün-Verlauf)
Datenbasis: 18 Proxy-Zeitreihen (Sedimente, Pollen, Isotope, Stalagmiten) – ohne Baumringe.
Der Verlauf:
950 – 1250 n. Chr. (Mittelalterliche Warmzeit): Die Kurve zeigt einen deutlichen „Buckel“. Die Temperaturen liegen hier auf einem Plateau, das höher ist als das Niveau von 1990. Grönland ist eisfrei besiedelbar, Weinbau findet in Nordengland statt.
1400 – 1850 n. Chr. (Kleine Eiszeit): Die Kurve stürzt tief ab. Dies ist das „Tal der Kälte“. Hungersnöte und zugefrorene Flüsse in Europa sind die Folge solarer Minima (Maunder-Minimum).
1850 – heute (Die Erholung): Die Kurve steigt aus dem tiefen Tal der Kleinen Eiszeit wieder an. Dieser Anstieg ist eine natürliche Rückkehr zum Normalniveau nach einer extremen Kaltphase.
Die Botschaft: Das Klima „atmet“ in Zyklen. Der heutige Anstieg ist Teil einer jahrtausendealten Wellenbewegung.
2. Die Kurve der Lüge (Der rote Hockeyschläger)
Datenbasis: Selektive Baumring-Proxys (Michael Mann / IPCC).
Der Verlauf:
Eine fast schnurgerade, flache Linie von 1000 bis 1900 n. Chr. Die Mittelalterliche Warmzeit wurde hier künstlich „flachgerechnet“ (statistisch geglättet).
Ab 1900 schießt die Linie fast senkrecht nach oben (das „Blatt“ des Schlägers).
Die Botschaft: Es wird suggeriert, das Klima sei 1000 Jahre stabil gewesen, bis der Mensch kam. Es fehlt die natürliche Variabilität.
Loehne-Kurve – Widerlegung Hockey-Schläger-Lüge
Technische Details für die Umsetzung:
Y-Achse: Temperatur-Anomalie in °C (Skala von -0.6 bis +0.6).
X-Achse: Jahre (800 bis 2025).
Markierung: Ein deutlicher Pfeil von der Mittelalterlichen Warmzeit (ca. 1100 n. Chr.) zum heutigen CO₂-Anstieg (2025 n. Chr.) mit der Beschriftung: „800 Jahre Ozeanische Trägheit (Henry-Gesetz)“.
Die offizielle Klimaphysik nutzt den Hockeyschläger, um die Vergangenheit auszulöschen. Wer die Loehle-Rekonstruktion betrachtet, erkennt sofort: Das Mittelalter war eine globale Realität und oft wärmer als heute. Der entscheidende Punkt für unsere Betrachtung: Wenn das Mittelalter wärmer war, dann folgt daraus zwingend der 800-jährige Time-Lag (die Verzögerung). Das CO₂, das wir heute messen, ist das verspätete Ausgasen der Ozeane als Reaktion auf genau diesen mittelalterlichen Wärmebuckel, den die Loehle-Kurve so präzise zeigt. Wer die Mittelalterliche Warmzeit statistisch weglügt, tut dies nur, um die heutige CO₂-Entgasung als ‚unnatürlich‘ zu brandmarken. Die Realität ist: Wir befinden uns am Ende einer Erholungsphase aus der Kleinen Eiszeit, gesteuert durch den solaren Motor und das ozeanische Gedächtnis
5. Das Thermometer-Tuning
Niemand leugnet, dass sich das Klima verändert, aber die Art der Messung ist das Problem.
Der Wärmeinseleffekt: Ein Großteil der weltweit genutzten Messstationen befindet sich heute auf Asphaltflächen, an Flughäfen oder in dicht besiedelten Städten (Beton/Asphalt). Diese Umgebungen speichern Wärme künstlich. Messstationen in Städten liefern grundsätzlich höhere Temperaturen als solche in der freien Natur. Die Ausweitung der Urbanisierung führt zu einem „Tuning“ der globalen Durchschnittstemperatur.
Reduzierung der Stationen: Es gibt heute weniger Messstationen als noch vor 20 Jahren. Die Verteilung ist ungleich und konzentriert sich auf Wärmeinseln, während Stationen in kühleren, ländlichen Regionen oder höheren Lagen überproportional oft aus den offiziellen Berechnungen verschwinden.
Homogenisierung: Historische Temperaturdaten werden im Nachhinein „angepasst“. Dabei werden kühle Phasen der Vergangenheit oft künstlich nach unten korrigiert und heutige Werte nach oben „homogenisiert“, um den gewünschten steilen Temperaturanstieg (Hockeystick-Kurve) statistisch zu erzeugen.
Das Thermometer-Tuning 1
Diese Grafik visualisiert das Argument warum die offiziellen Temperaturkurven eine statistische Täuschung sind. Wir dekonstruieren die Hockeyschläger-Kurve durch historische Messdaten und den Wärmeinseleffekt:
Die Kurve der Wahrheit (blau-grün): Zeigt die reale, dichteabhängige Variabilität (Mittelalterliche Warmzeit, Kleine Eiszeit) nach der Loehle-Rekonstruktion – ohne fehlerhafte Baumringe.
Die Hockeyschläger-Fälschung (grau im Hintergrund): Zeigt, wie die natürliche Variabilität statistisch weglügt wurde (IPCC-Täuschung).
Die Unterschlagungen (links):
Réaumur-Unterschlagung: Rohdaten von 1846 (z. B. CET) zeigen Temperaturen über 37°R, was 46.25°C entspricht. Diese realen Spitzenwerte werden in heutigen Klimakurven „homogenisiert“ (nach unten korrigiert).
Wärmeinseleffekt: Die magnified Vergrößerung zeigt, wie ein Großteil der Messstationen heute auf Asphalt, Flughäfen oder in Städten steht. Die Rekorde sind künstlich überhöht.
Das Fazit: Wärme fließt nicht von kalt nach warm. Der heutige Anstieg ist nur das verspätete chemische Echo einer vergangenen Wärme (800 Jahre ozeanisches Gedächtnis).
Die Kühlrippe 1
Die Fälschung (links): Zeigt den offiziellen IPCC-Hockeyschläger. Ein magnified Inset entlarvt den statistischen Algorithmus (McIntyre & McKitrick), der die Mittelalterliche Warmzeit (MWP) künstlich herausglättet, um den modernen Anstieg als „beispiellos“ darzustellen. Ein fetter roter Pfeil zeigt das „TUNING“ durch Baumring-Daten.
Die Realität (rechts): Zeigt die unverfälschte Loehle-Rekonstruktion – ohne fehlerhafte Baumringe. Du siehst deutlich den Wärmebuckel der MWP (950-1250 n.Chr.), der global wärmer war als heute.
Die Unterschlagungen (unten rechts):
Réaumur-Unterschlagung: Zeigt Rohdaten von 1846 mit Temperaturen über 37°R (= 46.25°C). Ein zerbrochenes Thermometer symbolisiert, dass diese realen Spitzenwerte in den offiziellen GHCN-Kurven „homogenisiert“ (nach unten korrigiert) wurden.
Wärmeinseleffekt: Zeigt, wie ein Großteil der Messstationen heute auf Asphalt, Flughäfen oder in Städten steht. Die Rekorde sind künstlich überhöht.
Die Chronologische Kausalität: Ein fettes Textfeld stellt klar: „KEINE RÜCKSTRAHLUNG VON KALT NACH WARM! CO₂ WIRKT ALS KÜHLRIPPE NACH OBEN.“ Ein Pfeil verbindet die ozeanische Batterie mit dem Time-Lag: Der heutige CO₂-Anstieg ist nur das verspätete chemische Echo einer vergangenen Wärme (800 Jahre ozeanisches Gedächtnis).
6. Der thermodynamische Todesstoß: Die 2-km-Grenze und die Kühlrippe
Wärmestrahlung ist lediglich ein energetischer Kurierdienst auf einer bestimmten Frequenz. Wirkliche Wärme entsteht erst am Zielort durch den Zusammenstoß von Teilchen. In der dünnen Luft oberhalb von 2 km Höhe sind die Moleküle jedoch so weit voneinander entfernt, dass diese ‚Reibung‘ (Stoßübertragung) kaum noch stattfindet. Das CO₂-Molekül schwingt dort zwar, findet aber keinen Partner, an den es die Energie abgeben könnte. Statt die Luft zu erwärmen, strahlt es die Energie daher einfach wieder in das eiskalte Weltall ab. Das CO₂ in der Höhe wirkt also nicht als Heizstrahler nach unten, sondern als Kühlrippe nach oben. Zudem verbietet der 2. Hauptsatz der Thermodynamik, dass eiskalte Luft der Stratosphäre (-50 °C) die warme Erdoberfläche (+15 °C) physikalisch nicht weiter aufheizen kann.
Die Rückstrahlungslüge
Zone 1: Kinetik (unten: 0-2 km): Zeigt die Dichte der Moleküle (N₂, O₂, H₂O, CO₂). Die magnified Vergrößerung illustriert, wie ein CO₂-Molekül zwar ein IR-Photon (Wärme) absorbiert, aber sofort mit einem Nachbarn (O₂/N₂) kollidiert. Dieser physische Stoß überträgt die Energie als Kinetik (Fluggeschwindigkeit), was die Luft erwärmt. Nur in dieser dichten Zone kann CO₂ physikalisch wirken.
Zone 2: Kühlrippe (oben: ab 2 km): Zeigt die dünne Atmosphäre. Die magnified Vergrößerung illustriert, wie CO₂-Moleküle hier isoliert sind und keine Kollisionspartner mehr finden. Ein CO₂-Molekül absorbiert ein IR-Photon, gerät in Schwingung und strahlt die Energie einfach in das eiskalte Weltall (-270°C) ab. CO₂ wirkt hier in der Höhe als Kühlrippe, die Wärme aus dem Systementfernt, anstatt sie nach unten zurückzustrahlen.
Das Fazit: Wärme fließt niemals von kalt nach warm. Der 2. Hauptsatz der Thermodynamik verbietet, dass eiskaltes CO₂ (-50°C) aus der Stratosphäre die warme Erdoberfläche (+15°C) weiter aufheizen kann.
Die Kühlrippe 3
Zone A: Die dichte Atmosphäre (0-2 km): Zeigt die Kinetik (Stoß). Die magnified Inset illustrates, how a vibrating red sphere (CO₂) absorbs an infrared photon and immediately collides with a larger blue O₂ molecule, transfering its energy as kinetische Fluggeschwindigkeit (Stoßübertragung). Text points to: „STOßPARTNER (O₂, N₂),“ and „WÄRMEAUFSTIEG (PHYSISCH).“ This is Konvektion. The dense air mesh (0-2 km) is labeled „STOßÜBERTRAGUNG (KINETIK).“
Zone B: Die dünne Atmosphäre (über 2 km): Zeigt die Strahlung. Here the magnified Inset illustrates, how a single isolated CO₂ molecule, labeled „CO₂ FINDET KEINEN STOßPARTNER MEHR,“ emits a wavy red infrared photon ONLY UPWARDS into black space labeled „EISKALTES WELTALL (-270°C).“ A bold red vertical arrow upwards points to: „CO₂ WIRKT HIER ALS KÜHLRIPPE NACH OBEN, NICHT ALS HEIZSTRAHLER NACH UNTEN.“
Die Kühlrippe: A bold text field summaries: „CO₂ WIRKT ALS KÜHLRIPPE NACH OBEN, NICHT ALS HEIZSTRAHLER NACH UNTEN.“ There are NO downward arrows from the CO₂ molecules.
Der 2. Hauptsatz: The summary panel summaries: „DAS PHYSIKALISCHE FAZIT FÜR DAS KLIMA-MANIFEST: Der 2. Hauptsatz der Thermodynamik verbietet, dass eiskaltes CO₂ (-50°C) aus der Stratosphäre die warme Erdoberfläche (+15°C) weiter aufheizen kann. Das Strahlungs-Narrativ ignoriert die dichteabhängige Thermodynamik. CO₂ kühlt den Planeten in der Höhe ab, anstatt ihn von oben zu stauen. Jede politische Maßnahme, die auf ‚Rückstrahlung‘ basiert, leugnet die physikalische Zeitachse der Gasdichte.“ The entire diagram is detailed, academic, and clear.
7. Die unterschlagenen orbitalen & mechanischen Treiber
Wer behauptet, das Klima ließe sich durch die Reduktion eines Spurengases (0,04 %) steuern, ignoriert die gigantische Mechanik des Sonnensystems. Die Überlagerung der Milanković-Zyklen, der planetaren Resonanz des Baryzentrums und der UV-gesteuerten Zirkulation bildet ein energetisches Kraftfeld, gegen das die menschliche CO₂-Emission physikalisch im Rauschen verschwindet. Wir steuern nicht das Klima; wir beobachten lediglich, wie die Sonne die ozeanische Batterie lädt oder entlädt.
Die kosmischen Kräfte
Das Erdklima wird durch drei fundamentale kosmische Mechanismen determiniert, gegen die der Mensch absolut machtlos ist:
1. Die Milanković-Zyklen (Das astronomische Fundament)
Die Erdbahn ist kein statischer Kreis. Drei zyklische Veränderungen bestimmen über Jahrtausende, wie viel Sonnenenergie die Erdoberfläche tatsächlich erreicht:
Präzession (ca. 21.000 Jahre): Das „Trudeln“ der Erdachse wie bei einem Kreisel. Es bestimmt, zu welcher Jahreszeit die Erde der Sonne am nächsten steht.
Obliquität (ca. 41.000 Jahre): Die Neigung der Erdachse schwankt zwischen 22,1° und 24,5°. Eine stärkere Neigung führt zu heißeren Sommern und kälteren Wintern, was das Abschmelzen oder Wachsen von Eisschilden steuert.
Exzentrizität (ca. 100.000 Jahre): Die Form der Erdbahn variiert von fast kreisförmig zu elliptisch. Dies ist der Taktgeber für die großen Eiszeit-Zyklen, die wir in den Vostok-Daten (Bild 1) sehen.
2. Das Baryzentrum des Sonnensystems (Die Planeten-Resonanz)
Die Sonne steht nicht still im Zentrum. Die Masse der großen Planeten (vor allem Jupiter und Saturn) zieht die Sonne in eine wirbelnde Bewegung um das Baryzentrum (den gemeinsamen Masseschwerpunkt).
Diese Bewegung moduliert die solare Aktivität und den magnetischen Fluss.
Studien zeigen eine Korrelation zwischen diesen planetaren Zyklen und den ca. 200-jährigen De-Vries-Zyklen der Sonnenaktivität, die exakt mit historischen Kaltphasen (wie dem Maunder-Minimum) übereinstimmen.
3. Der Total Solar Irradiance (TSI) & Spektrale Varianz
Während das IPCC behauptet, die Leuchtkraft der Sonne (TSI) variiere kaum, unterschlagen sie die spektrale Varianz:
Besonders im UV-Bereich schwankt die Sonnenenergie massiv. UV-Strahlung wird in der Stratosphäre absorbiert und steuert über das Ozon die Jetstreams und die atmosphärische Zirkulation.
Ein winziger Ausschlag im UV-Bereich verändert die Wetterlagen ganzer Kontinente, lange bevor ein CO₂-Molekül überhaupt reagieren könnte.
8. Der unterschlagene Wolken-Hebel: Die Ignoranz gegenüber Svensmark
Die offizielle Klimamodellierung begeht einen kardinalen Fehler: Sie behandelt Wolken als konstante Größe oder bloße Reaktion auf Wärme. Dabei wird der Svensmark-Effekt – die Verbindung zwischen Sonnenaktivität, kosmischer Strahlung und Wolkenbildung – systematisch ignoriert. Warum? Weil dieser Effekt beweist, dass die Albedo der Erde (das Rückstrahlvermögen) direkt von der Sonne gesteuert wird. Würde das IPCC den Svensmark-Effekt anerkennen, bliebe für das CO₂ als „Klimatreiber“ rechnerisch kein Platz mehr. Die Leugnung dieses physikalischen Mechanismus ist eine der großen Auslassungen der modernen Klimatologie.
Der Svensmark-Effekt
Die offizielle Klimaforschung ignoriert beharrlich den mächtigsten Hebel unseres Klimasystems: Die Modulation der Wolkendecke durch die kosmische Strahlung. Die obige Grafik beweist den physikalischen Mechanismus, der CO₂ als Nicht-Klimatreiber enttarnt.
1. Das solare Schutzschild (Die Ursache)
Die Sonne steuert das Klima nicht nur durch ihre Wärme, sondern primär durch ihr Magnetfeld. Wenn die solare Aktivität hoch ist (rechtes Bild), dehnt sich die Magnetosphäre der Sonne weit über die Erde aus und fegt die galaktische kosmische Strahlung (energiereiche Teilchen aus dem All) wie ein Schutzschild beiseite.
2. Ionen-Zentren und Wolkenbildung (Der Mechanismus)
Wenn die Sonne jedoch schwach ist (linkes Bild) – wie während der „Kleinen Eiszeit“ –, dringt massive kosmische Strahlung in unsere Atmosphäre ein. Diese Teilchen ionisieren die Luftmoleküle. Diese Ionen-Zentren wirken wie Magnete für Wasserdampf: Sie lassen winzige Tröpfchen kondensieren, aus denen dichte, niedrig hängende Wolken entstehen.
3. Albedo: Der globale Kühlfaktor
Eine Zunahme der weltweiten Bewölkung um nur 1 % bis 2 % reicht aus, um die Erde massiv abzukühlen, da Wolken das Sonnenlicht (Albedo) zurück ins All reflektieren, bevor es den Boden überhaupt erreichen kann.
Das finale Beweis-Fazit gegen die Klimalüge: Der Svensmark-Effekt liefert die physikalische Erklärung für die Korrelation zwischen Sonnenaktivität und Erdtemperatur, die wir seit Jahrtausenden beobachten. Er beweist:
Nicht CO₂ steuert die Temperatur, sondern die Wolkenbildung.
Die Wolkenbildung wird durch die kosmische Strahlung gesteuert.
Die kosmische Strahlung wird durch die Sonne gesteuert.
Wer diesen Mechanismus unterschlägt und behauptet, ein angeblicher Anstieg auf 0,04 % CO₂ könne diesen gigantischen kosmischen Regelkreis überlagern, betreibt keine Wissenschaft, sondern vorsätzliche Desinformation zur Durchsetzung politischer Agenden.
8. Die logarithmische Sättigung
Die physikalische Absorptionsfähigkeit von CO₂ für Wärmestrahlung ist bei den bereits vorhandenen Konzentrationen weitgehend gesättigt. Eine weitere Erhöhung des CO₂-Anteils führt nicht zu einer linearen Erwärmung, sondern verliert mit jedem zusätzlichen Teilchen massiv an Wirkung. Es ist wie eine bereits schwarze Wand, die man zum zweiten Mal streicht – sie wird nicht „schwärzer“. Es ist physikalisch unmöglich, mit einem bereits gesättigten Gas das Klima wie mit einem Thermostat zu steuern.
Das Liniendiagramm (zentral): Zeigt die CO₂-Konzentration (ppm) auf der X-Achse und die Absorptionswirkung / das Erwärmungspotential (relativ) auf der Y-Achse. Die Kurve steigt am Anfang steil an und flacht dann extrem ab (logarithmischer Verlauf). Ein Bereich bei 420 ppm ist markiert als „HEUTE (2026): SÄTTIGUNG NAHEZU VOLLSTÄNDIG“. Text daneben: „ca. 99 % WIRKUNG“. Pfeile markieren „20 ppm“, „280 ppm (angeblich VORINDUSTRIELL)“ und „800 ppm (VERDOPPELUNG)“.
Das Analogie-Beispiel (rechts): Zeigt drei Fenster, die mit schwarzer Farbe bestrichen sind.
„1. SCHICHT: STARKE WIRKUNG“: Blockiert einen Teil des Sonnenlichts. Symbol: halbdunkler Raum. Text: „ERSTE WIRKUNG“.
„10 SCHICHTEN: FAST DUNKEL“: Symbol: sehr dunkler Raum. Text: „SÄTTIGUNG“.
„11. SCHICHT: KEINE ÄNDERUNG!“: Symbol: der gleiche sehr dunkle Raum. Text: „DUNKEL BLEIBT DUNKEL. MEHR FARBE ÄNDERT NICHTS. (Das Absorptionsfenster ist zu)“. Pfeile deuten zurück auf die Kurve bei 420 ppm und 800 ppm.
Das finale physikalische Fazit: Ein Zusammenfassungs-Panel formuliert explizit den wissenschaftlichen Schluss: Die Quantenphysik beweist: Das Infrarot-Absorptionsband von CO₂ ist bei der heutigen Konzentration bereits gesättigt. Wer behauptet, CO₂-Reduktion würde die Temperatur steuern, versucht, einen stockfinsteren Raum durch noch mehr schwarze Farbe ‚dunkler‘ zu machen. CO₂-SCHUTZ IST PHYSIKALISCH SINNLOS. (Beweis für das Klima-Manifest).
Die Klimamodelle des IPCC basieren auf der absurden Annahme, dass jedes zusätzliche CO₂-Molekül die gleiche Erwärmung verursacht wie das erste. Die Quantenphysik (Lambert-Beersches Gesetz) beweist das Gegenteil:
1. Die Sättigungs-Kurve (Die physikalische Realität)
Die Absorptionsfähigkeit von CO₂ für Infrarotstrahlung folgt einer logarithmischen Kurve. Das bedeutet: Die ersten 20 ppm (Teile pro Million) haben den größten Effekt. Mit steigender Konzentration flacht die Wirkung extrem ab. Bei unseren heutigen 420 ppm ist das relevante „Fenster“ im Infrarotspektrum bereits zu über 99 % geschlossen.
2. Das Analogie-Beispiel: Die schwarze Farbe
Stellen Sie sich vor, Sie streichen ein Fenster mit schwarzer Farbe, um den Raum abzudunkeln. Die erste Schicht hält viel Licht auf. Die zweite Schicht macht es fast dunkel. Wenn Sie aber bereits 10 Schichten aufgetragen haben, wird eine 11. Schicht den Raum nicht mehr dunkler machen – das Licht ist bereits blockiert. Genauso verhält es sich mit CO₂ in der Atmosphäre: Das Absorptionsband ist gesättigt.
3. Der fehlende Hebel
Selbst eine Verdoppelung des CO₂-Gehalts auf 800 ppm würde physikalisch kaum noch eine messbare Temperaturänderung bewirken (weniger als 0,5 °C theoretisch, bevor die Kühlrippen-Funktion aus Bild 3 dies wieder neutralisiert).
Das finale Beweis-Fazit gegen die Klimalüge: Die Behauptung, wir müssten das CO₂ senken, um die Temperatur zu steuern, ist so, als würde man versuchen, einen bereits stockfinsteren Raum durch noch mehr schwarze Farbe „dunkler“ zu machen. Der thermische Hebel von CO₂ ist bei der heutigen Konzentration gleich Null. Jede politische Maßnahme zur CO₂-Vermeidung ist daher physikalisch vollkommen sinnlos.
9. Die Isotopen-Falle (C13, C14 und der Suess-Effekt)
Das IPCC behauptet, das sinkende C14/C12-Verhältnis beweise die fossile Herkunft des CO₂ . Damit sei bewiesen, dass der Mensch durch die Verbrennung fossiler Brennstoffe Schuld an der Klimaerwärmung durch die menschengemachte Einbringung von CO₂ in die Atmosphäre habe. Das ist ein logischer Fehlschluss: Fossile Brennstoffe sind C14-frei, aber die Tiefsee ist ebenfalls ein gewaltiges Reservoir für uralten, C14-freien Kohlenstoff. Wenn die Ozeane sich erwärmen (Henry-Gesetz), gasen sie genau diesen alten Kohlenstoff aus. Das Isotopen-Signal der Meere ist vom Signal fossiler Brennstoffe kaum zu unterscheiden. Der Isotopen-Shift beweist die Entgasung der Meere, nicht die Alleinschuld des Menschen.
Diese Grafik visualisiert den chemischen Fingerabdruck der Atmosphäre. Sie demaskiert die Behauptung, der Mensch sei für den CO₂-Anstieg verantwortlich, durch die Gesetze der Atomphysik:
A. Die Klima-Lüge (oben): Das IPCC postuliert, der Mensch würde die Atmosphäre fluten (Bild 10, rot). Natürliche Quellen werden ignoriert.
B. Die physikalische Realität (unten): Fossile Brennstoffe (Kohle, Öl, Gas) sind Millionen Jahre alt. Der radioaktive Kohlenstoff-Isotop C14 ist darin längst verfallen (C14 ~ 0 %). Wenn der Mensch CO₂ aus fossilen Quellen emittieren würde, müsste der atmosphärische C14-Anteil rechnerisch sinken (der Suess-Effekt).
Der Suess-Effekt (zentral): Die Wostok-Daten (Bild 1) und die Ozeane (Bild 5) besitzen eine klare solare C14-Signatur. Wenn fossiles CO₂ emittiert wird, müsste diese solare Signatur (C14) abnehmen. Die Realität zeigt jedoch: Die C14-Signatur folgt der Sonnenaktivität, nicht dem menschlichen Ausstoß.
Fazit: Die Isotopen-Signatur (C13/C14) demaskiert die CO₂-Zunahme als ozeanisches Echo (Henry-Gesetz) auf die mittelalterliche Warmzeit (MWP) vor 800 Jahren. Der anthropogene (menschliche) Anteil ist homöopathisch wirkungslos.
Um den Menschen als Alleinschuldigen für den CO2-Anstieg zu brandmarken, nutzt die offizielle Klimaforschung den sogenannten Suess-Effekt. Dieser Effekt soll beweisen, dass das zusätzliche CO₂ in der Luft aus der Verbrennung fossiler Stoffe stammt. Doch bei genauerer physikalischer Betrachtung entpuppt sich dieses Argument als wissenschaftliche Einbahnstraße.
1. Der Suess-Effekt: Die Theorie des „toten“ Kohlenstoffs
Die Theorie basiert auf dem Isotop C14. Dieses ist radioaktiv und entsteht ständig in der oberen Atmosphäre durch kosmische Strahlung. Fossile Brennstoffe (Kohle, Öl) sind jedoch Millionen Jahre alt; ihr C14 ist längst vollständig zerfallen – sie sind „radioaktiv tot“.
Die Behauptung: Wenn wir fossile Brennstoffe verbrennen, fluten wir die Luft mit diesem C14-toten Kohlenstoff. Dadurch sinkt der relative Anteil an C14 in der Atmosphäre.
Die Realität: Ja, dieser Rückgang ist messbar, aber er beweist lediglich die Anwesenheit von fossilem Kohlenstoff, nicht dessen Steuerungsmacht über das Klima.
2. Das ozeanische Echo: Die 800-Jahre-Falle
Der entscheidende Fehler des IPCC ist die Unterschlagung der ozeanischen Kapazität. Die Weltmeere speichern 50-mal mehr CO₂ als die gesamte Atmosphäre.
Durch das Henry-Gesetz gasen die Ozeane heute das CO₂ aus, das sie während der Mittelalterlichen Warmzeit (MWP) vor ca. 800 Jahren gespeichert haben.
Dieses natürliche CO₂ besitzt eine eigene Isotopen-Signatur, die massiv von der Sonnenaktivität gesteuert wird (Svensmark-Effekt). Da die Sonne die Entstehung von C14 in der Atmosphäre über das Magnetfeld reguliert, ist die Varianz der Isotope primär ein kosmisches Signal und kein industrielles Abfallprodukt.
3. Die homöopathische Menge
Der menschliche Anteil am gesamten CO₂-Budget der Atmosphäre beträgt lediglich 0,0016 %. Den Suess-Effekt als Beweis für eine Klimakatastrophe anzuführen, ist physikalisch absurd:
Es ist, als würde man einen Tropfen Tinte in den Ozean schütten und behaupten, man habe nun die chemische Kontrolle über das gesamte Weltmeer übernommen.
Die Isotopen-Signatur bestätigt lediglich, dass wir fossile Stoffe nutzen – sie widerlegt jedoch nicht, dass die gigantischen natürlichen Zyklen der Ozeane und der Sonne die wahren Regisseure des CO₂-Gehalts sind.
Das Fazit für das Manifest:
Die „Isotopen-Falle“ ist ein Taschenspielertrick. Man nutzt eine chemische Nachweisbarkeit (Suess-Effekt), um eine physikalische Wirkung vorzutäuschen, die aufgrund der winzigen Mengen und der logarithmischen Sättigung schlicht nicht existiert. Das CO₂ folgt der Temperatur – chemisch, physikalisch und chronologisch.
10. Die Luftsäulen-Illusion – Warum Milliarden „Nieten“ keinen Gewinn ergeben
Klimafanatiker versuchen oft, die homöopathische Menge von 0,04 % CO₂ zu retten, indem sie die gesamte Höhe der Atmosphäre ins Feld führen. Ihr Argument: In einer kilometerhohen Luftsäule stünden ja „Milliarden und Abermilliarden“ CO₂-Moleküle hintereinander, die alle die Wärme einfangen und zurückstrahlen könnten.
Doch diese Rechnung ignoriert drei fundamentale physikalische Gesetze:
1. Das Mischungsverhältnis bleibt eine statistische Ohnmacht
Egal wie hoch man die Luftsäule rechnet: Das Mischungsverhältnis bleibt eine statistische Ohnmacht. Auf jedes CO₂-Molekül kommen rund 2.400 Moleküle Stickstoff und Sauerstoff. In der dichten Atmosphäre wird jede vom CO₂ aufgenommene Energie durch Milliarden Stöße pro Sekunde sofort in kinetische Wärme umgewandelt und am CO₂ vorbei durch Konvektion (Aufstieg) abgeführt. Die theoretische „Rückstrahlung“ findet in dieser kinetischen Suppe schlicht nicht statt.
Stellen Sie sich eine Armee vor, in der auf einen Soldaten 2.500 Zivilisten kommen, die im Weg stehen. Dieser eine Soldat kann die Armee nicht befehligen, er geht in der Masse einfach unter. Die energetische „Anregung“ eines CO₂-Moleküls wird sofort durch Milliarden Stöße pro Sekunde an die Umgebung abgegeben (Kinetik), lange bevor es überhaupt daran denken könnte, etwas „zurückzustrahlen“.
2. Das Gesetz der Sättigung (Die 10-Meter-Wand)
Dieses „Hintereinanderschalten“ von Molekülen in der Luftsäule bringt ab einem gewissen Punkt keinen Zusatznutzen (siehe Bild: Logarithmische Sättigung).
Die Infrarot-Photonen, die vom Boden aufsteigen und genau die Wellenlänge haben, auf die CO₂ reagiert, werden bereits in den untersten Luftschichten fast vollständig absorbiert. Ob darüber noch weitere Milliarden Moleküle in der Säule warten, ist physikalisch völlig egal – das „Licht“ ist dann bereits weg. Es ist, als ob man 100 schwarze Vorhänge hintereinander aufhängt: Der erste Vorhang macht es dunkel, der 99. Vorhang dahinter hat keine Funktion mehr.
3. Der Konvektions-Aufzug (Das offene System)
Die „clevere“ Theorie der Luftsäule tut so, als ob die Wärme in dieser Säule eingesperrt bliebe. Sie unterschlägt den Wärmeaufstieg. Sobald ein CO₂-Molekül Energie aufnimmt und sie kinetisch an die Luftmoleküle (Stickstoff/Sauerstoff) weitergibt, wird diese Luftmasse wärmer, spezifisch leichter und steigt sofort nach oben.
Unsere Atmosphäre ist kein statisches Rohr, in dem Strahlung hin- und herpendelt, sondern ein dynamisches, offenes System. Die Wärme wird physisch am CO₂ vorbei nach oben „gelüftet“, wo sie in der dünnen Luft (Zone B) einfach ins Weltall abgestrahlt wird (Kühlrippen-Effekt, Bild 3).
Das Fazit für das Manifest:
Das Argument der „Milliarden Moleküle in der Luftsäule“ ist ein statistischer Trick, um von der energetischen Bedeutungslosigkeit eines Spurengases abzulenken. 0,04 % bleiben 0,04 % – egal, wie hoch man den Stapel rechnet. In einem System, das von Konvektion (Aufstieg) und Wasserdampf dominiert wird, bleibt die theoretische „Rückstrahlung“ einer Luftsäule ein mathematisches Gespinst ohne messbare Wirkung auf das reale Wettergeschehen.
11. Der „Gift-Vergleich“ – Ein logischer Kategorienfehler
Wenn die Fakten zur thermodynamischen Ohnmacht von 0,04 % CO₂ auf den Tisch kommen, flüchten sich Gegner oft in die Gift-Analogie: „Ein Tropfen Gift im Körper tötet ja auch, obwohl er nur eine winzige Menge ist!“
Dieser Vergleich ist wissenschaftlich unlauter, da er zwei völlig verschiedene Welten vermischt: Biochemie (Toxikologie) und Thermodynamik (Physik).
1. Toxikologie vs. Thermodynamik
Wie Gift wirkt (Biochemie): Gift wirkt durch eine spezifische chemische Reaktion. Ein CO₂-Molekül ist aber kein biologischer Wirkstoff, der „Rezeptoren“ besetzt. Es ist in der Atmosphäre lediglich ein Wärmeüberträger.
Wie Wärme wirkt (Physik): In der Thermodynamik zählen Masse und Energiebilanz. Um die Temperatur einer riesigen Luftmasse (Stickstoff und Sauerstoff) zu verändern, braucht man eine entsprechende Menge an Energie und Trägermolekülen. Ein Anteil von 0,04 % eines Gases kann physikalisch nicht die thermische Kontrolle über die restlichen 99,96 % übernehmen – erst recht nicht, wenn das Haupt-„Treibhausgas“ Wasserdampf (bis zu 4,0 %) die energetische Bühne zu 95 % allein beherrscht.
2. Das Fass und der „letzte Tropfen“
Gegner behaupten, das CO2 sei der „letzte Tropfen“, der das Klimasystem zum Überlaufen bringt (Tipping Points).
Die Realität: Diese Analogie setzt voraus, dass das System am Limit steht. Aber die Erde befindet sich seit Jahrmillionen in einem dynamischen Gleichgewicht mit CO₂-Werten, die oft zehnmal höher waren als heute (bis zu 4.000 ppm), ohne dass die Meere verdampft wären.
Die Sättigungs-Falle: Selbst wenn wir beim Gift-Vergleich bleiben: Wenn alle Rezeptoren im Körper bereits durch Gift besetzt sind (Sättigung), bewirkt eine weitere Dosis nichts mehr. Wie wir in Bild 9 bewiesen haben, ist das Infrarot-Fenster des CO₂ bereits bei der heutigen Konzentration fast vollständig „zu“. Jedes weitere Molekül ist wie ein Tropfen Gift, der in einen Körper geschüttet wird, der bereits zu 100 % gesättigt ist – es gibt keine physikalische Angriffsfläche mehr für eine Zusatzwirkung.
3. Der wahre Vergleich: Das Dämmmaterial
Ein ehrlicher physikalischer Vergleich wäre die Dämmung eines Hauses:
Wenn Sie ein Haus haben, dessen Wände zu 99,9 % aus dünnem Stoff bestehen (Stickstoff/Sauerstoff), wird eine winzige Spur Dämmmaterial (0,04 % CO₂) das Haus niemals warm halten können. Die Wärme zieht einfach durch die restlichen 99,9 % der Fläche ab.
Zudem ist die Atmosphäre kein geschlossenes Haus, sondern sie hat ein offenes Dach (Konvektion, Bild 3 & 4). Den „letzten Tropfen“ gibt es nicht in einem System, das nach oben hin ständig Energie ins Weltall entlässt.
Das Fazit für das Manifest:
Der Gift-Vergleich ist ein manipulativer Taschenspielertrick. Er versucht, physikalische Massengesetze durch biochemische Ängste zu ersetzen. In der Thermodynamik regiert die Quantität. 0,04 % eines Spurengases können gegen die gewaltige Masse der restlichen Atmosphäre, die Ozeane und die Sonne keinen „Umschlagpunkt“ erzwingen.
Prof. Ian Plimer – Die Klimalüge 1
Prof. Ian Plimer – Die Klimalüge 2
Prof. Ian Pilmer – Die Klimalüge 3
Prof. Ian Pilmer – Die Klimalüge 4
Joachim Bublath (ZDF) – Als man noch die Wahrheit sagen durfte
Umweltschutz wird fälschlicherweise dem Klimaschutz gleichgesetzt. Umweltschutz bedeutet aber, auch andere Bereiche des menschlichen Eingriffs in die Natur zu betrachten, als nur den Einfluss, den der Mensch ggf. aufs Klima hat. Natürlich ist alles mehr oder weniger verwoben und es gibt viele Zusammenhänge und Abhängigkeiten. Natürlich ist der Mensch Teil der Natur und damit ebenso schützenswürdig. Wer kümmert sich eigentlich um den Menschenschutz?
Energie, Umwelt und Klima – Fakten statt Ideologie
Die Zukunft einer Gesellschaft hängt unweigerlich von ihrer Energieversorgung und ihrem Umgang mit der Umwelt ab. Doch während die öffentlicheDebatte zunehmend von Schlagworten und politischen Dogmen bestimmt wird, geraten die tatsächlichen Herausforderungen und Möglichkeiten in den Hintergrund. Die vorherrschende Klimapolitik setzt auf Emotionalisierung statt faktenbasierte Lösungsansätze, wobei kritische Stimmen oft bewusst ausgegrenzt werden.
Klimapolitik – Wissenschaft oder politisches Instrument?
Der Klimawandel ist eine Realität, doch die Art und Weise, wie mit ihm umgegangen wird, scheint mehr von politischen Interessen als von wissenschaftlicher Präzision geprägt zu sein. CO₂ wird oft als Hauptverursacher dargestellt, ohne eine tiefgehende Analyse aller Einflussfaktoren. Während die politischen Akteure drastische Maßnahmen zur Reduzierung von Emissionen fordern, bleiben viele wissenschaftliche Fragen unbeantwortet. Warum wird der Einfluss der Sonne und anderer natürlicher Faktoren in der öffentlichen Debatte kaum berücksichtigt? Eine echte Klimapolitik müsste sämtliche Ursachen einbeziehen, statt sich ausschließlich auf ein narratives Konzept zu stützen.
Energieversorgung – Realität oder Wunschdenken?
Die Energiewende wird als alternativlos präsentiert, doch die Umsetzung bleibt fragwürdig. Der massive Ausbau erneuerbarer Energien stößt auf technische und wirtschaftliche Grenzen, während konventionelle Energiequellen aus ideologischen Gründen immer weiter zurückgedrängt werden. Die Abschaltung von Kernkraftwerken erfolgte ohne eine realistische Ersatzstrategie, wodurch Deutschland zunehmend auf Energieimporte angewiesen ist. Eine kritische Betrachtung der Energiepolitik ist dringend notwendig, um Versorgungssicherheit und wirtschaftliche Stabilität langfristig zu gewährleisten.
Gesellschaftlicher Einfluss – Umweltschutz oder Symbolpolitik?
Echter Umweltschutz erfordert pragmatische Maßnahmen und nachhaltige Strategien, doch die öffentlicheDebatte wird von politischen Kampagnen überlagert. Aktivistengruppen setzen zunehmend auf Konfrontation statt auf konstruktiven Dialog, was langfristig das Vertrauen in umweltpolitische Maßnahmen untergräbt. Die Frage bleibt: Wer profitiert wirklich von der derzeitigen Klimapolitik? Ein kritischer Blick auf wirtschaftliche Interessen und Subventionsstrukturen zeigt, dass ökologische Argumente oft zweckgebunden eingesetzt werden, um bestimmte Industrien oder politische Ziele zu fördern.
Fazit – Sachlichkeit statt Ideologie
Eine rationale Umwelt- und Energiepolitik sollte sich auf wissenschaftliche Erkenntnisse und langfristige wirtschaftliche Überlegungen stützen, anstatt sich ausschließlich von politischen Narrativen leiten zu lassen. Deutschland braucht eine offene Debatte, die Fakten über Ideologie stellt und alternative Lösungsansätze zulässt. Nur so kann eine zukunftsfähige Strategie entwickelt werden, die sowohl ökologischen als auch wirtschaftlichen Anforderungen gerecht wird.
Umwelt
Umweltschutz ist wichtig, weil sich unsere Zukunft nur in einer sauberen Umwelt entwickeln kann. Umweltschutz ist damit eine gesamtstaatliche Aufgabe, denn die Umwelt und auch das Klima werden unter anderem auch durch das Wirken des Menschen beeinflusst.
Fingerabdruck
Mit und ohne CO2
CO₂ ist das Lebenselixier unserer Natur, unserer Bäume und Pflanzen, ohne deren Sauerstofferzeugungs-Prozess auf Basis von CO₂ wir gar nicht existieren würden!
einatmen und ausatmen
Pflanzen betreiben Fotosynthese, sie verwandeln mithilfe von Sonnenlicht CO₂ und Wasser zu Biomasse. Man kann also sagen: CO₂ ist die Hauptnahrung von Pflanzen – je mehr CO₂ in der Luft, desto besser wachsen und gedeihen sie.
Erstaunlich ist, dass eine Fotosynthese bei einer CO₂-Konzentration von 0,08 % am effektivsten ist. Wir befinden uns erdgeschichtlich also in einer Phase der niedrigen CO₂-Konzentration.
Je mehr CO₂ es also gibt, umso mehr Sauerstoff wird produziert. Ist CO₂ also schädlich? Wenn ja, für wen und wenn nein, welcher Agenda läufst Du hinterher, grüner Specht! Das Thema CO₂ und dessen Korrelation zur Temperatur werde ich an geeigneter Stelle weiter vertiefen.
Aktuell erzeugt das aggressive Herumtragen der Klimawandel-Monstranz lediglich heiße Luft bzgl. ihrer Wirkung auf die Umwelt. Sie verhindert aber wissenschaftlichen und wirtschaftlichen Fortschritt und zerstört die Lebensentwürfe von Millionen. Die Aggression und die damit verbundenen faktischen Straftaten dieser woken Gruppierungen sind für jeden sichtbar. TV und WWW berichten ausführlich über die Respektlosigkeit radikalisierter Klimakleber. Diese Terrororganisation lehnt sachliche Diskussionen ab und erpresst diesen Staat. Die antidemokratische Gesinnung der Protagonisten ist das Ergebnis linksgrüner Anti-Bildung. Diese Klientel ist in ihrer Mehrzahl übrigens gar nicht bereit, für die Umwelt ihre eigenen Lebensgewohnheiten zu ändern. Sie schreien meist nur lauthals herum und verstören andere Menschen mit gesundem Menschenverstand.
Sie lügen, dass sich die Balken biegen, um ihr Dasein und die vielen Millionen Unterstützungsgelder abzukassieren. Sie verdrehen die Wahrheiten, melden nur das Nötigste und halten uns für blöd! Ein besonders hinterlistiges Beispiel für eine angebliche Klimaerwärmung liefert der deutsche Wetterdienst im Auftrag seiner Geldgeber gern. Die Bezugsgrößen im Beispiel sind so geschickt „verborgen“, aber erkennbar für Bürger mit offenem Blick.
Bevor die Klimahysteriker Atemnot bekommen und ohne weiterführende Wertungen zum Thema CO₂, hier eine einfache Gleichung, wie die Natur das böse CO₂ heute schon in Schach hält. 80 qm Waldholz verarbeitet pro Jahr 1 Tonne CO₂ und wandelt es in Sauerstoff um. Deutschland hat aktuell einen CO₂-Ausstoß von ca. 750 Mio. Tonnen (2022). Um also 750 Mio. Tonnen CO₂ zu verarbeiten, bräuchten wir in Deutschland 750 Mio. qm Waldholz.
In einem Wald stehen etwa 700 Bäume pro Hektar, also etwa 500 m³ Waldholz. 1 Hektar entspricht 0,01 km². Nach dem Dreisatz bräuchten wir nur 120000 km² für die Umwandlung von 750 Mio. Tonnen CO₂. Die Waldfläche in Deutschland beträgt 11,4 Mio. Hektar = 114000 km². Ich erkenne hier kein Problem, im Gegenteil! Wir sind auf einem guten Weg, unseren eigenen Ausstoß an CO₂ Gasen vollständig zu absorbieren.
Ist das Wichtig? Nein, denn eine zweite Gleichung wäre zu beantworten.
Fakt 1: Niemand hat jemals bewiesen, dass der menschliche Anteil an allen CO₂-Emissionen von 4 % die globale Erwärmung vorantreiben. Fakt 2: Wenn es jemals bewiesen werden könnte, dann müsste dadurch ebenfalls bewiesen werden, dass die 96 % der Emissionen, die natürlichen Ursprungs sind, keinen Einfluss auf die globale Erwärmung haben.
Game Over!
Wir haben es mit einem Betrug zu tun. Es ist ein wissenschaftlicher Betrug vom ersten Tag an.
Die Anatomie einer globalen Indoktrination und der Missbrauch der Naturwissenschaft
Dieses Kapitel dient der systematischen Zerlegung des offiziellen Narrativs und belegt die physikalischen Unmöglichkeiten der Treibhaus-Theorie sowie die gezielte Manipulation der Datengrundlage und die chronologischen Fehler der CO₂-These. Es kann keinen Treibhauseffekt ohne Treibhaus geben! Wer etwas anderes behauptet, ist entweder ein Lügner oder eine Sprechpuppe.
1. Die Entmystifizierung des „Treibhauseffekts“
Um die aktuelle Klimadebatte zu verstehen, muss man zunächst den Begriff des „Treibhauseffekts“ entmystifizieren. Der echte Treibhauseffekt, wie wir ihn aus Gewächshäusern, Wintergärten oder einem in der Sonne geparkten Auto kennen, beruht primär auf der Unterdrückung der thermischen Konvektion – also auf einem mechanischen Wärmestau. Die Glasscheibe verhindert physisch, dass die erwärmte Luft aufsteigen und kühlere Luft nachfließen kann. In der Erdatmosphäre gibt es jedoch keine „Glaskuppel“. Die Troposphäre ist nach oben offen, und Wärme wird primär durch gewaltige Luftströmungen (Konvektion) abgeführt. Der Vergleich der Atmosphäre mit einem Glashaus ist daher physikalisch irreführend und ein rein rhetorisches Konstrukt, um eine physikalische Unmöglichkeit plausibel erscheinen zu lassen.
Die Treibhauslüge im Vergleich mit dem echten Nicht-Treibhauseffekt
Diese Grafik visualisiert den fundamentalen Betrug, den das IPCC und die Medien tagtäglich verbreiten. Sie nutzen die falsche Metapher des „Treibhauses“, um eine physikalische Realität zu simulieren, die in der offenen Atmosphäre nicht existiert.
1. Das theoretische Märchen (links): Die Strahlungs-Falle
Dies ist das Modell, das man Ihnen verkauft. Es postuliert eine feste, feste „Glaskuppel“ aus CO₂-Molekülen, die die Infrarotstrahlung staut. Diese Theorie ignoriert die dichteabhängige Thermodynamik und behauptet, eiskaltes CO₂ (-50 °C) in der Stratosphäre könnte die warme Erdoberfläche (+15 °C) durch eine Rückstrahlung (Heizstrahler-Effekt) weiter aufheizen. Das ist ein eklatanter Bruch des 2. Hauptsatzes der Thermodynamik, nach dem Wärme niemals spontan von kalt zu warm fließen kann.
2. Die dichteabhängige Realität (rechts): Die offene Kühlrippe
Unsere Atmosphäre ist nach oben OFFEN. Die Physik ist dichteabhängig:
Zone A (unten: 0-2 km): Der mechanische Wärmeaufstieg. In der dichten Luftmasse absorbiert CO₂ zwar Energie, aber anstatt sie nach unten zu strahlen, transferiert es diese Energiemechanisch (durch Stoßübertragung/Kinetik) an N₂ und O₂. Die Wärme wird am CO₂ vorbei physisch durch Konvektion (aufsteigende warme Luft/Thermik) nach oben abgeleitet. Der 2. Hauptsatz der Thermodynamik regiert hier ungestört.
Zone B (oben: über 2 km): Die Strahlungskühlung. In der dünnen Atmosphäre finden die CO₂-Moleküle kaum noch Stoßpartner. Sie strahlen die Energie daher ausschließlich nach oben in das eiskalte Weltall (-270 °C) ab.
Das finale physikalische Fazit: CO₂ wirkt in der Höhe nicht als Glaskuppel, die Wärme staut, sondern als Kühlrippe, die Wärme in den Weltraum entlässt. Die Metapher des „Treibhauses“ ist ein vorsätzlicher Betrug, der die offene Konvektion und die ozeanische Batterie unterschlägt. Wer behauptet, CO₂ heize die Erde von oben, leugnet die physikalische Zeitachse der Gasdichte.
Der echte Treibhauseffekt im Vergleich mit dem echten Nicht-Treibhauseffekt
Diese Grafik visualisiert den begrifflichen Betrug, den das IPCC und die Medien vorsätzlich nutzen, um die öffentliche Wahrnehmung zu manipulieren. Sie verwenden das Wort „Treibhauseffekt“, obwohl die offene Atmosphäre physikalisch völlig anders funktioniert als ein Glashaus.
1. Das echte Treibhaus (links): Mechanische Sperre
Dies ist die physische Realität. Ein Treibhaus heizt sich nicht durch Strahlung oder Gasphysik auf. Die Sonnenenergie (kurzwellig) passierte das Glas und heizt den Boden auf. Die entstehende warme Luft (Konvektion) steigt physisch auf (rote Pfeile). Die feste Glasplatte wirkt jedoch als mechanische Sperre und verhindert den Aufstieg. Die Wärme wird gezwungen, im Raum zu bleiben. Es gibt keine Konvektion nach außen.
2. Die offene Atmosphäre (rechts): Thermodynamische Kühlung
Unsere Atmosphäre ist nach oben OFFEN. Die Physik ist dichteabhängig:
Zone A (unten: 0-2 km): Der Wärmeaufstieg. In der dichten Luftmasse absorbiert CO₂ zwar Energie, gibt sie aber sofort mechanisch (durch Stoßübertragung/Kinetik) an N₂ und O₂ ab. Die Wärme wird am CO₂ vorbei physisch durch Konvektion (aufsteigende warme Luft/Thermik) nach oben abgeleitet. Der 2. Hauptsatz der Thermodynamik regiert hier ungestört.
Zone B (oben: über 2 km): Die Strahlungskühlung. In der dünnen Stratosphäre finden die CO₂-Moleküle kaum noch Stoßpartner. Sie strahlen die Energie daher ausschließlich nach oben in das eiskalte Weltall (-270 °C) ab.
Das finale physikalische Fazit: Die Metapher des „Treibhauses“ für die offene Atmosphäre ist ein physikalischer Unsinn. Im echten Treibhaus wird die Konvektion mechanisch gestaut. In der offenen Atmosphäre wird Wärme mechanisch abgeleitet. CO₂ wirkt in der Höhe als Kühlrippe, die das System entlastet, statt es von oben zu stauen. Wer diesen fundamentalen Unterschied leugnet, leugnet die physikalische Realität der Gasdichte.
2. Das IPCC: Eine politische NGO im Gewand der Wissenschaft
Das „Intergovernmental Panel on Climate Change“ (IPCC) wird in den Medien oft als der „Weltklimarat“ bezeichnet, was Neutralität suggeriert. In Wahrheit ist es eine politische NGO im Auftrag der Regierungen.
Selektive Forschung: Das IPCC betreibt keine eigene Forschung. Sein Mandat besteht darin, Literatur zu sichten, die den anthropogenen Klimawandel stützt. Forscher werden nicht nach Brillanz, sondern nach Haltung ausgewählt.
Der 97%-Mythos: Die oft zitierte Zahl von 97 % Einigkeit unter Wissenschaftlern ist eine gezielte Falschinformation. Sie basiert auf Studien, die lediglich die Arbeiten von Klimaforschern filterten, die bereits von staatlichen Geldern abhängig sind. Es sind 97 % derer, die vom System bezahlt werden.
Die Zusammenfassung für Entscheidungsträger (SPM): Während die technischen Berichte oft noch wissenschaftliche Unsicherheiten einräumen, wird die „Zusammenfassung für Politiker“ von Regierungsvertretern Wort für Wort verhandelt. Hier wird Wissenschaft durch politische Zielsetzung ersetzt.
Die Ignoranz der Moderne – Meyers Konversations-Lexikon (1890)
In den Standard-Enzyklopädien des späten 19. Jahrhunderts wird der CO₂-Anteil der Atmosphäre bereits mit 0,04 % angegeben. Das ist exakt der gleiche Wert wie heute (400 ppm). Dies belegt zweifelsfrei, dass es seit über 130 Jahren überhaupt keine relevante anthropogene Änderung der Konzentration gegeben hat. Der behauptete drastische Anstieg von 280 auf 420 ppm ist ein statistisches Konstrukt, das auf der selektiven Auswahl von Daten beruht. Sog. Faktenchecker unterstellen der damaligen Wissenschaft Ungenauigkeit. Es ist nicht zu fassen, wie diese linksgrünen Rüpel die Wissenschaft dieser Epoche, die unser Land hat aufblühen lassen, mit Füßen treten.
Meyers Konversationslexikon 1888 1
Meyers Konversationslexikon 1888 2
Meyers Konversationslexikon 1888 3
Die Réaumur-Unterschlagung
Um die heutige Epoche als „wärmste seit Aufzeichnungsbeginn“ zu verkaufen, muss die offizielle Klimaforschung die Temperaturen der Vergangenheit künstlich absenken. Neben statistischen Glättungen (siehe Bild 2) wird hierzu ein handfester physikalischer Betrug bei der Übernahme historischer Daten angewandt: Die systematische Unterschlagung der Réaumur-Skala.
Bis zum Jahr 1901 wurde die Temperatur in weiten Teilen Europas in Réaumur gemessen (°R = 1,25 °C). Historische Wetteraufzeichnungen von 1846 nennen Temperaturen von über 37 °R – das entspricht 46,25 °C. Diese massiven historischen Hitzewellen werden von heutigen Institutionen und „Faktencheckern“ systematisch verschwiegen oder unterschlagen, um die heutigen Sommer als „beispiellose Rekorde“ zu verkaufen.
1. Die mathematische Hebelwirkung
Bis weit in das 19. Jahrhundert hinein war in Europa (insbesondere in Deutschland, Frankreich und Russland) die Réaumur-Skala (°Ré) der Standard für wissenschaftliche Temperaturmessungen. Die Umrechnung in die heute übliche Celsius-Skala ist physikalisch exakt definiert:
1 °Ré = 1,25 °C
Das bedeutet zwingend: Ein numerischer Wert auf der Réaumur-Skala ist immer niedriger als der entsprechende physikalische Wert in Celsius.
Beispiel: Zeigte ein Thermometer im Jahr 1850 einen Wert von 12,0 °Ré, so entspricht dies physikalisch exakt 15,0 °C.
2. Der methodische Betrug: Die 1:1-Übernahme
Der Vorwurf der Datenmanipulation wiegt schwer: In den globalen Temperaturdatensätzen (wie GISS oder HadCRUT) wurden historische Stationsdaten aus dem 18. und 19. Jahrhundert oft 1:1 übernommen, ohne die notwendige Umrechnung von Réaumur in Celsius vorzunehmen.
Wenn ein historischer Messwert von 12,0 °Ré einfach als 12,0 °C in eine moderne Statistik eingetragen wird, „verschwinden“ auf dem Papier rechnerisch 3,0 Grad Celsius an tatsächlicher Wärme.
Da heutige Vergleichswerte korrekt in Celsius gemessen werden (z. B. 15,0 °C), suggeriert die resultierende Grafik eine dramatische Erwärmung von 3 Grad, obwohl die physikalische Temperatur über 170 Jahre absolut identisch geblieben ist.
3. Systematik statt Versehen
Dass es sich hierbei nicht um Flüchtigkeitsfehler, sondern um vorsätzliche Täuschung handelt, belegen drei Fakten:
Einseitigkeit: Die „vergeßene“ Umrechnung tritt fast ausschließlich bei historischen Daten auf. Dies dient dazu, die Vergangenheit „kalt zu rechnen“, um den heutigen Temperaturverlauf steiler erscheinen zu lassen.
Quellenblindheit: Die Original-Logbücher alter Wetterstationen (wie z. B. Hohenpeißenberg) weisen die Einheit °Ré explizit aus. Ein qualifizierter Klimatologe kann diesen Umstand nicht übersehen.
Konstrukt der Erwärmung: Ohne diesen massiven Einheiten-Betrug ließen sich viele der behaupteten Temperaturanstiege seit der vorindustriellen Zeit mathematisch nicht halten.
Die Reamur-Unterschlagung
Das Fazit für das Manifest:
Die Réaumur-Unterschlagung ist der Beweis für eine bewusste Fälschung der Temperaturhistorie. Wer physikalische Einheiten missachtet, um statistische Kurven zu manipulieren, hat den Boden der Wissenschaft verlassen. Die behauptete „beispiellose Erwärmung“ ist zu einem erheblichen Teil kein klimatisches Ereignis, sondern ein Produkt schlichter mathematischer Unterschlagung.
„Heiße Sommer“ Aus dem Leeuwarder Courant vom 28.07.1846! Hinweis: Die in diesem Zeitungsbericht angegebenen Temperaturen wurden in Reaumur gemessen. Beispiel: 34 Grad Reaumur = 42,5 Grad Celsius
Das Weglassen von historischen Beweisen, um das grüne Narrativ nicht zu stören, ist eine Tatsache. Ein Zeitungsartikel zum Thema „warme Sommer“ von 1846 stellt chronologisch Hitzeereignisse der Vergangenheit dar. Die Temperaturen sind in Reaumur angegeben, weil es Grad Celsius einfach damals noch nicht gab. Diese wurde erst 1901 Standard in Europa.
4. Die Hockeyschläger-Täuschung und das unterschlagene Erbe
Um die CO₂-Theorie als „unumstößlich“ zu verkaufen, wurde der sogenannte Hockeyschläger-Graph erfunden. Er suggeriert eine jahrtausendelange Temperatur-Stagnation, die plötzlich im 19. Jahrhundert steil nach oben schießt. Doch diese Grafik basiert auf einem doppelten Betrug: Erstens wurde die Mittelalterliche Warmzeit (MWP) statistisch herausgeglättet, und zweitens wird die physikalische Konstante der 800-jährigen Verzögerung ignoriert. Wenn wir den Faktor Zeit und die ozeanische Trägheit korrekt einberechnen, wird klar: Der heutige CO₂-Anstieg ist kein Beweis für menschliche Schuld, sondern das zwangsläufige Symptom einer natürlichen Erwärmung (MWP), die stattfand, lange bevor die Industrialisierung begann. Da CO₂ der Temperatur mit ca. 800 Jahren Verspätung folgt (nachgewiesen in den Vostok-Eiskernen), kann der Anstieg seit 1850 unmöglich durch den Menschen verursacht sein. Er ist die verspätete Reaktion auf das Mittelalter.
Der offizielle Betrug (links): Zeigt das IPCC-Narrativ, bei dem die CO₂-Konzentration (rot) und die Temperatur (blau) ohne jede Verzögerung parallel ansteigen. Eine vergrößerte Detailansicht entlarvt den logischen Fehlschluss „KORRELATION = KAUSALITÄT?“ mit dem expliziten Hinweis: „FEHLER: Man setzt voraus, dass CO₂ die Temperatur steuert.“
Die physikalische Realität (rechts): Verwendet die unverfälschten Wostok-Eiskern-Daten. Hier wird deutlich sichtbar, dass die Temperatur (blau) bei jedem Klimaumschwung der letzten 100.000 Jahre zuerst ansteigt.
Die 800-Jahre-Verzögerung: Eine vergrößerte Detailansicht (unten rechts) fokussiert auf den Zeitverzug (Time-Lag). Sie zeigt die präzise chronologische Lücke: „800 JAHRE CO₂-VERZÖGERUNG (PASSIVER BEOBACHTER).“ Ein Textkasten stellt unmissverständlich klar: „CO₂ FOLGT DER TEMPERATUR.“
Der ozeanische Motor (Henry-Gesetz): Ein Querschnitt des Ozeans (rechts unten) visualisiert die ozeanische Batterie. Ein hervorgehobenes Textfeld erklärt: „HENRY-GESETZ: Warmes Wasser kann weniger CO₂ binden. Die Ozeane gasen heute zeitversetzt das aus, was sie vor Jahrhunderten durch solare Erwärmung gespeichert haben.“
Der Beweis
Die folgende Grafik zeigt zwei Kurven im Vergleich über den Zeitraum von 800 n. Chr. bis heute.
1. Die Kurve der Wahrheit (Blau/Grün-Verlauf)
Datenbasis: 18 Proxy-Zeitreihen (Sedimente, Pollen, Isotope, Stalagmiten) – ohne Baumringe.
Der Verlauf:
950 – 1250 n. Chr. (Mittelalterliche Warmzeit): Die Kurve zeigt einen deutlichen „Buckel“. Die Temperaturen liegen hier auf einem Plateau, das höher ist als das Niveau von 1990. Grönland ist eisfrei besiedelbar, Weinbau findet in Nordengland statt.
1400 – 1850 n. Chr. (Kleine Eiszeit): Die Kurve stürzt tief ab. Dies ist das „Tal der Kälte“. Hungersnöte und zugefrorene Flüsse in Europa sind die Folge solarer Minima (Maunder-Minimum).
1850 – heute (Die Erholung): Die Kurve steigt aus dem tiefen Tal der Kleinen Eiszeit wieder an. Dieser Anstieg ist eine natürliche Rückkehr zum Normalniveau nach einer extremen Kaltphase.
Die Botschaft: Das Klima „atmet“ in Zyklen. Der heutige Anstieg ist Teil einer jahrtausendealten Wellenbewegung.
2. Die Kurve der Lüge (Der rote Hockeyschläger)
Datenbasis: Selektive Baumring-Proxys (Michael Mann / IPCC).
Der Verlauf:
Eine fast schnurgerade, flache Linie von 1000 bis 1900 n. Chr. Die Mittelalterliche Warmzeit wurde hier künstlich „flachgerechnet“ (statistisch geglättet).
Ab 1900 schießt die Linie fast senkrecht nach oben (das „Blatt“ des Schlägers).
Die Botschaft: Es wird suggeriert, das Klima sei 1000 Jahre stabil gewesen, bis der Mensch kam. Es fehlt die natürliche Variabilität.
Loehne-Kurve – Widerlegung Hockey-Schläger-Lüge
Technische Details für die Umsetzung:
Y-Achse: Temperatur-Anomalie in °C (Skala von -0.6 bis +0.6).
X-Achse: Jahre (800 bis 2025).
Markierung: Ein deutlicher Pfeil von der Mittelalterlichen Warmzeit (ca. 1100 n. Chr.) zum heutigen CO₂-Anstieg (2025 n. Chr.) mit der Beschriftung: „800 Jahre Ozeanische Trägheit (Henry-Gesetz)“.
Die offizielle Klimaphysik nutzt den Hockeyschläger, um die Vergangenheit auszulöschen. Wer die Loehle-Rekonstruktion betrachtet, erkennt sofort: Das Mittelalter war eine globale Realität und oft wärmer als heute. Der entscheidende Punkt für unsere Betrachtung: Wenn das Mittelalter wärmer war, dann folgt daraus zwingend der 800-jährige Time-Lag (die Verzögerung). Das CO₂, das wir heute messen, ist das verspätete Ausgasen der Ozeane als Reaktion auf genau diesen mittelalterlichen Wärmebuckel, den die Loehle-Kurve so präzise zeigt. Wer die Mittelalterliche Warmzeit statistisch weglügt, tut dies nur, um die heutige CO₂-Entgasung als ‚unnatürlich‘ zu brandmarken. Die Realität ist: Wir befinden uns am Ende einer Erholungsphase aus der Kleinen Eiszeit, gesteuert durch den solaren Motor und das ozeanische Gedächtnis
5. Das Thermometer-Tuning
Niemand leugnet, dass sich das Klima verändert, aber die Art der Messung ist das Problem.
Der Wärmeinseleffekt: Ein Großteil der weltweit genutzten Messstationen befindet sich heute auf Asphaltflächen, an Flughäfen oder in dicht besiedelten Städten (Beton/Asphalt). Diese Umgebungen speichern Wärme künstlich. Messstationen in Städten liefern grundsätzlich höhere Temperaturen als solche in der freien Natur. Die Ausweitung der Urbanisierung führt zu einem „Tuning“ der globalen Durchschnittstemperatur.
Reduzierung der Stationen: Es gibt heute weniger Messstationen als noch vor 20 Jahren. Die Verteilung ist ungleich und konzentriert sich auf Wärmeinseln, während Stationen in kühleren, ländlichen Regionen oder höheren Lagen überproportional oft aus den offiziellen Berechnungen verschwinden.
Homogenisierung: Historische Temperaturdaten werden im Nachhinein „angepasst“. Dabei werden kühle Phasen der Vergangenheit oft künstlich nach unten korrigiert und heutige Werte nach oben „homogenisiert“, um den gewünschten steilen Temperaturanstieg (Hockeystick-Kurve) statistisch zu erzeugen.
Das Thermometer-Tuning 1
Diese Grafik visualisiert das Argument warum die offiziellen Temperaturkurven eine statistische Täuschung sind. Wir dekonstruieren die Hockeyschläger-Kurve durch historische Messdaten und den Wärmeinseleffekt:
Die Kurve der Wahrheit (blau-grün): Zeigt die reale, dichteabhängige Variabilität (Mittelalterliche Warmzeit, Kleine Eiszeit) nach der Loehle-Rekonstruktion – ohne fehlerhafte Baumringe.
Die Hockeyschläger-Fälschung (grau im Hintergrund): Zeigt, wie die natürliche Variabilität statistisch weglügt wurde (IPCC-Täuschung).
Die Unterschlagungen (links):
Réaumur-Unterschlagung: Rohdaten von 1846 (z. B. CET) zeigen Temperaturen über 37°R, was 46.25°C entspricht. Diese realen Spitzenwerte werden in heutigen Klimakurven „homogenisiert“ (nach unten korrigiert).
Wärmeinseleffekt: Die magnified Vergrößerung zeigt, wie ein Großteil der Messstationen heute auf Asphalt, Flughäfen oder in Städten steht. Die Rekorde sind künstlich überhöht.
Das Fazit: Wärme fließt nicht von kalt nach warm. Der heutige Anstieg ist nur das verspätete chemische Echo einer vergangenen Wärme (800 Jahre ozeanisches Gedächtnis).
Die Kühlrippe 1
Die Fälschung (links): Zeigt den offiziellen IPCC-Hockeyschläger. Ein magnified Inset entlarvt den statistischen Algorithmus (McIntyre & McKitrick), der die Mittelalterliche Warmzeit (MWP) künstlich herausglättet, um den modernen Anstieg als „beispiellos“ darzustellen. Ein fetter roter Pfeil zeigt das „TUNING“ durch Baumring-Daten.
Die Realität (rechts): Zeigt die unverfälschte Loehle-Rekonstruktion – ohne fehlerhafte Baumringe. Du siehst deutlich den Wärmebuckel der MWP (950-1250 n.Chr.), der global wärmer war als heute.
Die Unterschlagungen (unten rechts):
Réaumur-Unterschlagung: Zeigt Rohdaten von 1846 mit Temperaturen über 37°R (= 46.25°C). Ein zerbrochenes Thermometer symbolisiert, dass diese realen Spitzenwerte in den offiziellen GHCN-Kurven „homogenisiert“ (nach unten korrigiert) wurden.
Wärmeinseleffekt: Zeigt, wie ein Großteil der Messstationen heute auf Asphalt, Flughäfen oder in Städten steht. Die Rekorde sind künstlich überhöht.
Die Chronologische Kausalität: Ein fettes Textfeld stellt klar: „KEINE RÜCKSTRAHLUNG VON KALT NACH WARM! CO₂ WIRKT ALS KÜHLRIPPE NACH OBEN.“ Ein Pfeil verbindet die ozeanische Batterie mit dem Time-Lag: Der heutige CO₂-Anstieg ist nur das verspätete chemische Echo einer vergangenen Wärme (800 Jahre ozeanisches Gedächtnis).
6. Der thermodynamische Todesstoß: Die 2-km-Grenze und die Kühlrippe
Wärmestrahlung ist lediglich ein energetischer Kurierdienst auf einer bestimmten Frequenz. Wirkliche Wärme entsteht erst am Zielort durch den Zusammenstoß von Teilchen. In der dünnen Luft oberhalb von 2 km Höhe sind die Moleküle jedoch so weit voneinander entfernt, dass diese ‚Reibung‘ (Stoßübertragung) kaum noch stattfindet. Das CO₂-Molekül schwingt dort zwar, findet aber keinen Partner, an den es die Energie abgeben könnte. Statt die Luft zu erwärmen, strahlt es die Energie daher einfach wieder in das eiskalte Weltall ab. Das CO₂ in der Höhe wirkt also nicht als Heizstrahler nach unten, sondern als Kühlrippe nach oben. Zudem verbietet der 2. Hauptsatz der Thermodynamik, dass eiskalte Luft der Stratosphäre (-50 °C) die warme Erdoberfläche (+15 °C) physikalisch nicht weiter aufheizen kann.
Die Rückstrahlungslüge
Zone 1: Kinetik (unten: 0-2 km): Zeigt die Dichte der Moleküle (N₂, O₂, H₂O, CO₂). Die magnified Vergrößerung illustriert, wie ein CO₂-Molekül zwar ein IR-Photon (Wärme) absorbiert, aber sofort mit einem Nachbarn (O₂/N₂) kollidiert. Dieser physische Stoß überträgt die Energie als Kinetik (Fluggeschwindigkeit), was die Luft erwärmt. Nur in dieser dichten Zone kann CO₂ physikalisch wirken.
Zone 2: Kühlrippe (oben: ab 2 km): Zeigt die dünne Atmosphäre. Die magnified Vergrößerung illustriert, wie CO₂-Moleküle hier isoliert sind und keine Kollisionspartner mehr finden. Ein CO₂-Molekül absorbiert ein IR-Photon, gerät in Schwingung und strahlt die Energie einfach in das eiskalte Weltall (-270°C) ab. CO₂ wirkt hier in der Höhe als Kühlrippe, die Wärme aus dem Systementfernt, anstatt sie nach unten zurückzustrahlen.
Das Fazit: Wärme fließt niemals von kalt nach warm. Der 2. Hauptsatz der Thermodynamik verbietet, dass eiskaltes CO₂ (-50°C) aus der Stratosphäre die warme Erdoberfläche (+15°C) weiter aufheizen kann.
Die Kühlrippe 3
Zone A: Die dichte Atmosphäre (0-2 km): Zeigt die Kinetik (Stoß). Die magnified Inset illustrates, how a vibrating red sphere (CO₂) absorbs an infrared photon and immediately collides with a larger blue O₂ molecule, transfering its energy as kinetische Fluggeschwindigkeit (Stoßübertragung). Text points to: „STOßPARTNER (O₂, N₂),“ and „WÄRMEAUFSTIEG (PHYSISCH).“ This is Konvektion. The dense air mesh (0-2 km) is labeled „STOßÜBERTRAGUNG (KINETIK).“
Zone B: Die dünne Atmosphäre (über 2 km): Zeigt die Strahlung. Here the magnified Inset illustrates, how a single isolated CO₂ molecule, labeled „CO₂ FINDET KEINEN STOßPARTNER MEHR,“ emits a wavy red infrared photon ONLY UPWARDS into black space labeled „EISKALTES WELTALL (-270°C).“ A bold red vertical arrow upwards points to: „CO₂ WIRKT HIER ALS KÜHLRIPPE NACH OBEN, NICHT ALS HEIZSTRAHLER NACH UNTEN.“
Die Kühlrippe: A bold text field summaries: „CO₂ WIRKT ALS KÜHLRIPPE NACH OBEN, NICHT ALS HEIZSTRAHLER NACH UNTEN.“ There are NO downward arrows from the CO₂ molecules.
Der 2. Hauptsatz: The summary panel summaries: „DAS PHYSIKALISCHE FAZIT FÜR DAS KLIMA-MANIFEST: Der 2. Hauptsatz der Thermodynamik verbietet, dass eiskaltes CO₂ (-50°C) aus der Stratosphäre die warme Erdoberfläche (+15°C) weiter aufheizen kann. Das Strahlungs-Narrativ ignoriert die dichteabhängige Thermodynamik. CO₂ kühlt den Planeten in der Höhe ab, anstatt ihn von oben zu stauen. Jede politische Maßnahme, die auf ‚Rückstrahlung‘ basiert, leugnet die physikalische Zeitachse der Gasdichte.“ The entire diagram is detailed, academic, and clear.
7. Die unterschlagenen orbitalen & mechanischen Treiber
Wer behauptet, das Klima ließe sich durch die Reduktion eines Spurengases (0,04 %) steuern, ignoriert die gigantische Mechanik des Sonnensystems. Die Überlagerung der Milanković-Zyklen, der planetaren Resonanz des Baryzentrums und der UV-gesteuerten Zirkulation bildet ein energetisches Kraftfeld, gegen das die menschliche CO₂-Emission physikalisch im Rauschen verschwindet. Wir steuern nicht das Klima; wir beobachten lediglich, wie die Sonne die ozeanische Batterie lädt oder entlädt.
Die kosmischen Kräfte
Das Erdklima wird durch drei fundamentale kosmische Mechanismen determiniert, gegen die der Mensch absolut machtlos ist:
1. Die Milanković-Zyklen (Das astronomische Fundament)
Die Erdbahn ist kein statischer Kreis. Drei zyklische Veränderungen bestimmen über Jahrtausende, wie viel Sonnenenergie die Erdoberfläche tatsächlich erreicht:
Präzession (ca. 21.000 Jahre): Das „Trudeln“ der Erdachse wie bei einem Kreisel. Es bestimmt, zu welcher Jahreszeit die Erde der Sonne am nächsten steht.
Obliquität (ca. 41.000 Jahre): Die Neigung der Erdachse schwankt zwischen 22,1° und 24,5°. Eine stärkere Neigung führt zu heißeren Sommern und kälteren Wintern, was das Abschmelzen oder Wachsen von Eisschilden steuert.
Exzentrizität (ca. 100.000 Jahre): Die Form der Erdbahn variiert von fast kreisförmig zu elliptisch. Dies ist der Taktgeber für die großen Eiszeit-Zyklen, die wir in den Vostok-Daten (Bild 1) sehen.
2. Das Baryzentrum des Sonnensystems (Die Planeten-Resonanz)
Die Sonne steht nicht still im Zentrum. Die Masse der großen Planeten (vor allem Jupiter und Saturn) zieht die Sonne in eine wirbelnde Bewegung um das Baryzentrum (den gemeinsamen Masseschwerpunkt).
Diese Bewegung moduliert die solare Aktivität und den magnetischen Fluss.
Studien zeigen eine Korrelation zwischen diesen planetaren Zyklen und den ca. 200-jährigen De-Vries-Zyklen der Sonnenaktivität, die exakt mit historischen Kaltphasen (wie dem Maunder-Minimum) übereinstimmen.
3. Der Total Solar Irradiance (TSI) & Spektrale Varianz
Während das IPCC behauptet, die Leuchtkraft der Sonne (TSI) variiere kaum, unterschlagen sie die spektrale Varianz:
Besonders im UV-Bereich schwankt die Sonnenenergie massiv. UV-Strahlung wird in der Stratosphäre absorbiert und steuert über das Ozon die Jetstreams und die atmosphärische Zirkulation.
Ein winziger Ausschlag im UV-Bereich verändert die Wetterlagen ganzer Kontinente, lange bevor ein CO₂-Molekül überhaupt reagieren könnte.
8. Der unterschlagene Wolken-Hebel: Die Ignoranz gegenüber Svensmark
Die offizielle Klimamodellierung begeht einen kardinalen Fehler: Sie behandelt Wolken als konstante Größe oder bloße Reaktion auf Wärme. Dabei wird der Svensmark-Effekt – die Verbindung zwischen Sonnenaktivität, kosmischer Strahlung und Wolkenbildung – systematisch ignoriert. Warum? Weil dieser Effekt beweist, dass die Albedo der Erde (das Rückstrahlvermögen) direkt von der Sonne gesteuert wird. Würde das IPCC den Svensmark-Effekt anerkennen, bliebe für das CO₂ als „Klimatreiber“ rechnerisch kein Platz mehr. Die Leugnung dieses physikalischen Mechanismus ist eine der großen Auslassungen der modernen Klimatologie.
Der Svensmark-Effekt
Die offizielle Klimaforschung ignoriert beharrlich den mächtigsten Hebel unseres Klimasystems: Die Modulation der Wolkendecke durch die kosmische Strahlung. Die obige Grafik beweist den physikalischen Mechanismus, der CO₂ als Nicht-Klimatreiber enttarnt.
1. Das solare Schutzschild (Die Ursache)
Die Sonne steuert das Klima nicht nur durch ihre Wärme, sondern primär durch ihr Magnetfeld. Wenn die solare Aktivität hoch ist (rechtes Bild), dehnt sich die Magnetosphäre der Sonne weit über die Erde aus und fegt die galaktische kosmische Strahlung (energiereiche Teilchen aus dem All) wie ein Schutzschild beiseite.
2. Ionen-Zentren und Wolkenbildung (Der Mechanismus)
Wenn die Sonne jedoch schwach ist (linkes Bild) – wie während der „Kleinen Eiszeit“ –, dringt massive kosmische Strahlung in unsere Atmosphäre ein. Diese Teilchen ionisieren die Luftmoleküle. Diese Ionen-Zentren wirken wie Magnete für Wasserdampf: Sie lassen winzige Tröpfchen kondensieren, aus denen dichte, niedrig hängende Wolken entstehen.
3. Albedo: Der globale Kühlfaktor
Eine Zunahme der weltweiten Bewölkung um nur 1 % bis 2 % reicht aus, um die Erde massiv abzukühlen, da Wolken das Sonnenlicht (Albedo) zurück ins All reflektieren, bevor es den Boden überhaupt erreichen kann.
Das finale Beweis-Fazit gegen die Klimalüge: Der Svensmark-Effekt liefert die physikalische Erklärung für die Korrelation zwischen Sonnenaktivität und Erdtemperatur, die wir seit Jahrtausenden beobachten. Er beweist:
Nicht CO₂ steuert die Temperatur, sondern die Wolkenbildung.
Die Wolkenbildung wird durch die kosmische Strahlung gesteuert.
Die kosmische Strahlung wird durch die Sonne gesteuert.
Wer diesen Mechanismus unterschlägt und behauptet, ein angeblicher Anstieg auf 0,04 % CO₂ könne diesen gigantischen kosmischen Regelkreis überlagern, betreibt keine Wissenschaft, sondern vorsätzliche Desinformation zur Durchsetzung politischer Agenden.
8. Die logarithmische Sättigung
Die physikalische Absorptionsfähigkeit von CO₂ für Wärmestrahlung ist bei den bereits vorhandenen Konzentrationen weitgehend gesättigt. Eine weitere Erhöhung des CO₂-Anteils führt nicht zu einer linearen Erwärmung, sondern verliert mit jedem zusätzlichen Teilchen massiv an Wirkung. Es ist wie eine bereits schwarze Wand, die man zum zweiten Mal streicht – sie wird nicht „schwärzer“. Es ist physikalisch unmöglich, mit einem bereits gesättigten Gas das Klima wie mit einem Thermostat zu steuern.
Das Liniendiagramm (zentral): Zeigt die CO₂-Konzentration (ppm) auf der X-Achse und die Absorptionswirkung / das Erwärmungspotential (relativ) auf der Y-Achse. Die Kurve steigt am Anfang steil an und flacht dann extrem ab (logarithmischer Verlauf). Ein Bereich bei 420 ppm ist markiert als „HEUTE (2026): SÄTTIGUNG NAHEZU VOLLSTÄNDIG“. Text daneben: „ca. 99 % WIRKUNG“. Pfeile markieren „20 ppm“, „280 ppm (angeblich VORINDUSTRIELL)“ und „800 ppm (VERDOPPELUNG)“.
Das Analogie-Beispiel (rechts): Zeigt drei Fenster, die mit schwarzer Farbe bestrichen sind.
„1. SCHICHT: STARKE WIRKUNG“: Blockiert einen Teil des Sonnenlichts. Symbol: halbdunkler Raum. Text: „ERSTE WIRKUNG“.
„10 SCHICHTEN: FAST DUNKEL“: Symbol: sehr dunkler Raum. Text: „SÄTTIGUNG“.
„11. SCHICHT: KEINE ÄNDERUNG!“: Symbol: der gleiche sehr dunkle Raum. Text: „DUNKEL BLEIBT DUNKEL. MEHR FARBE ÄNDERT NICHTS. (Das Absorptionsfenster ist zu)“. Pfeile deuten zurück auf die Kurve bei 420 ppm und 800 ppm.
Das finale physikalische Fazit: Ein Zusammenfassungs-Panel formuliert explizit den wissenschaftlichen Schluss: Die Quantenphysik beweist: Das Infrarot-Absorptionsband von CO₂ ist bei der heutigen Konzentration bereits gesättigt. Wer behauptet, CO₂-Reduktion würde die Temperatur steuern, versucht, einen stockfinsteren Raum durch noch mehr schwarze Farbe ‚dunkler‘ zu machen. CO₂-SCHUTZ IST PHYSIKALISCH SINNLOS. (Beweis für das Klima-Manifest).
Die Klimamodelle des IPCC basieren auf der absurden Annahme, dass jedes zusätzliche CO₂-Molekül die gleiche Erwärmung verursacht wie das erste. Die Quantenphysik (Lambert-Beersches Gesetz) beweist das Gegenteil:
1. Die Sättigungs-Kurve (Die physikalische Realität)
Die Absorptionsfähigkeit von CO₂ für Infrarotstrahlung folgt einer logarithmischen Kurve. Das bedeutet: Die ersten 20 ppm (Teile pro Million) haben den größten Effekt. Mit steigender Konzentration flacht die Wirkung extrem ab. Bei unseren heutigen 420 ppm ist das relevante „Fenster“ im Infrarotspektrum bereits zu über 99 % geschlossen.
2. Das Analogie-Beispiel: Die schwarze Farbe
Stellen Sie sich vor, Sie streichen ein Fenster mit schwarzer Farbe, um den Raum abzudunkeln. Die erste Schicht hält viel Licht auf. Die zweite Schicht macht es fast dunkel. Wenn Sie aber bereits 10 Schichten aufgetragen haben, wird eine 11. Schicht den Raum nicht mehr dunkler machen – das Licht ist bereits blockiert. Genauso verhält es sich mit CO₂ in der Atmosphäre: Das Absorptionsband ist gesättigt.
3. Der fehlende Hebel
Selbst eine Verdoppelung des CO₂-Gehalts auf 800 ppm würde physikalisch kaum noch eine messbare Temperaturänderung bewirken (weniger als 0,5 °C theoretisch, bevor die Kühlrippen-Funktion aus Bild 3 dies wieder neutralisiert).
Das finale Beweis-Fazit gegen die Klimalüge: Die Behauptung, wir müssten das CO₂ senken, um die Temperatur zu steuern, ist so, als würde man versuchen, einen bereits stockfinsteren Raum durch noch mehr schwarze Farbe „dunkler“ zu machen. Der thermische Hebel von CO₂ ist bei der heutigen Konzentration gleich Null. Jede politische Maßnahme zur CO₂-Vermeidung ist daher physikalisch vollkommen sinnlos.
9. Die Isotopen-Falle (C13, C14 und der Suess-Effekt)
Das IPCC behauptet, das sinkende C14/C12-Verhältnis beweise die fossile Herkunft des CO₂ . Damit sei bewiesen, dass der Mensch durch die Verbrennung fossiler Brennstoffe Schuld an der Klimaerwärmung durch die menschengemachte Einbringung von CO₂ in die Atmosphäre habe. Das ist ein logischer Fehlschluss: Fossile Brennstoffe sind C14-frei, aber die Tiefsee ist ebenfalls ein gewaltiges Reservoir für uralten, C14-freien Kohlenstoff. Wenn die Ozeane sich erwärmen (Henry-Gesetz), gasen sie genau diesen alten Kohlenstoff aus. Das Isotopen-Signal der Meere ist vom Signal fossiler Brennstoffe kaum zu unterscheiden. Der Isotopen-Shift beweist die Entgasung der Meere, nicht die Alleinschuld des Menschen.
Diese Grafik visualisiert den chemischen Fingerabdruck der Atmosphäre. Sie demaskiert die Behauptung, der Mensch sei für den CO₂-Anstieg verantwortlich, durch die Gesetze der Atomphysik:
A. Die Klima-Lüge (oben): Das IPCC postuliert, der Mensch würde die Atmosphäre fluten (Bild 10, rot). Natürliche Quellen werden ignoriert.
B. Die physikalische Realität (unten): Fossile Brennstoffe (Kohle, Öl, Gas) sind Millionen Jahre alt. Der radioaktive Kohlenstoff-Isotop C14 ist darin längst verfallen (C14 ~ 0 %). Wenn der Mensch CO₂ aus fossilen Quellen emittieren würde, müsste der atmosphärische C14-Anteil rechnerisch sinken (der Suess-Effekt).
Der Suess-Effekt (zentral): Die Wostok-Daten (Bild 1) und die Ozeane (Bild 5) besitzen eine klare solare C14-Signatur. Wenn fossiles CO₂ emittiert wird, müsste diese solare Signatur (C14) abnehmen. Die Realität zeigt jedoch: Die C14-Signatur folgt der Sonnenaktivität, nicht dem menschlichen Ausstoß.
Fazit: Die Isotopen-Signatur (C13/C14) demaskiert die CO₂-Zunahme als ozeanisches Echo (Henry-Gesetz) auf die mittelalterliche Warmzeit (MWP) vor 800 Jahren. Der anthropogene (menschliche) Anteil ist homöopathisch wirkungslos.
Um den Menschen als Alleinschuldigen für den CO2-Anstieg zu brandmarken, nutzt die offizielle Klimaforschung den sogenannten Suess-Effekt. Dieser Effekt soll beweisen, dass das zusätzliche CO₂ in der Luft aus der Verbrennung fossiler Stoffe stammt. Doch bei genauerer physikalischer Betrachtung entpuppt sich dieses Argument als wissenschaftliche Einbahnstraße.
1. Der Suess-Effekt: Die Theorie des „toten“ Kohlenstoffs
Die Theorie basiert auf dem Isotop C14. Dieses ist radioaktiv und entsteht ständig in der oberen Atmosphäre durch kosmische Strahlung. Fossile Brennstoffe (Kohle, Öl) sind jedoch Millionen Jahre alt; ihr C14 ist längst vollständig zerfallen – sie sind „radioaktiv tot“.
Die Behauptung: Wenn wir fossile Brennstoffe verbrennen, fluten wir die Luft mit diesem C14-toten Kohlenstoff. Dadurch sinkt der relative Anteil an C14 in der Atmosphäre.
Die Realität: Ja, dieser Rückgang ist messbar, aber er beweist lediglich die Anwesenheit von fossilem Kohlenstoff, nicht dessen Steuerungsmacht über das Klima.
2. Das ozeanische Echo: Die 800-Jahre-Falle
Der entscheidende Fehler des IPCC ist die Unterschlagung der ozeanischen Kapazität. Die Weltmeere speichern 50-mal mehr CO₂ als die gesamte Atmosphäre.
Durch das Henry-Gesetz gasen die Ozeane heute das CO₂ aus, das sie während der Mittelalterlichen Warmzeit (MWP) vor ca. 800 Jahren gespeichert haben.
Dieses natürliche CO₂ besitzt eine eigene Isotopen-Signatur, die massiv von der Sonnenaktivität gesteuert wird (Svensmark-Effekt). Da die Sonne die Entstehung von C14 in der Atmosphäre über das Magnetfeld reguliert, ist die Varianz der Isotope primär ein kosmisches Signal und kein industrielles Abfallprodukt.
3. Die homöopathische Menge
Der menschliche Anteil am gesamten CO₂-Budget der Atmosphäre beträgt lediglich 0,0016 %. Den Suess-Effekt als Beweis für eine Klimakatastrophe anzuführen, ist physikalisch absurd:
Es ist, als würde man einen Tropfen Tinte in den Ozean schütten und behaupten, man habe nun die chemische Kontrolle über das gesamte Weltmeer übernommen.
Die Isotopen-Signatur bestätigt lediglich, dass wir fossile Stoffe nutzen – sie widerlegt jedoch nicht, dass die gigantischen natürlichen Zyklen der Ozeane und der Sonne die wahren Regisseure des CO₂-Gehalts sind.
Das Fazit für das Manifest:
Die „Isotopen-Falle“ ist ein Taschenspielertrick. Man nutzt eine chemische Nachweisbarkeit (Suess-Effekt), um eine physikalische Wirkung vorzutäuschen, die aufgrund der winzigen Mengen und der logarithmischen Sättigung schlicht nicht existiert. Das CO₂ folgt der Temperatur – chemisch, physikalisch und chronologisch.
10. Die Luftsäulen-Illusion – Warum Milliarden „Nieten“ keinen Gewinn ergeben
Klimafanatiker versuchen oft, die homöopathische Menge von 0,04 % CO₂ zu retten, indem sie die gesamte Höhe der Atmosphäre ins Feld führen. Ihr Argument: In einer kilometerhohen Luftsäule stünden ja „Milliarden und Abermilliarden“ CO₂-Moleküle hintereinander, die alle die Wärme einfangen und zurückstrahlen könnten.
Doch diese Rechnung ignoriert drei fundamentale physikalische Gesetze:
1. Das Mischungsverhältnis bleibt eine statistische Ohnmacht
Egal wie hoch man die Luftsäule rechnet: Das Mischungsverhältnis bleibt eine statistische Ohnmacht. Auf jedes CO₂-Molekül kommen rund 2.400 Moleküle Stickstoff und Sauerstoff. In der dichten Atmosphäre wird jede vom CO₂ aufgenommene Energie durch Milliarden Stöße pro Sekunde sofort in kinetische Wärme umgewandelt und am CO₂ vorbei durch Konvektion (Aufstieg) abgeführt. Die theoretische „Rückstrahlung“ findet in dieser kinetischen Suppe schlicht nicht statt.
Stellen Sie sich eine Armee vor, in der auf einen Soldaten 2.500 Zivilisten kommen, die im Weg stehen. Dieser eine Soldat kann die Armee nicht befehligen, er geht in der Masse einfach unter. Die energetische „Anregung“ eines CO₂-Moleküls wird sofort durch Milliarden Stöße pro Sekunde an die Umgebung abgegeben (Kinetik), lange bevor es überhaupt daran denken könnte, etwas „zurückzustrahlen“.
2. Das Gesetz der Sättigung (Die 10-Meter-Wand)
Dieses „Hintereinanderschalten“ von Molekülen in der Luftsäule bringt ab einem gewissen Punkt keinen Zusatznutzen (siehe Bild: Logarithmische Sättigung).
Die Infrarot-Photonen, die vom Boden aufsteigen und genau die Wellenlänge haben, auf die CO₂ reagiert, werden bereits in den untersten Luftschichten fast vollständig absorbiert. Ob darüber noch weitere Milliarden Moleküle in der Säule warten, ist physikalisch völlig egal – das „Licht“ ist dann bereits weg. Es ist, als ob man 100 schwarze Vorhänge hintereinander aufhängt: Der erste Vorhang macht es dunkel, der 99. Vorhang dahinter hat keine Funktion mehr.
3. Der Konvektions-Aufzug (Das offene System)
Die „clevere“ Theorie der Luftsäule tut so, als ob die Wärme in dieser Säule eingesperrt bliebe. Sie unterschlägt den Wärmeaufstieg. Sobald ein CO₂-Molekül Energie aufnimmt und sie kinetisch an die Luftmoleküle (Stickstoff/Sauerstoff) weitergibt, wird diese Luftmasse wärmer, spezifisch leichter und steigt sofort nach oben.
Unsere Atmosphäre ist kein statisches Rohr, in dem Strahlung hin- und herpendelt, sondern ein dynamisches, offenes System. Die Wärme wird physisch am CO₂ vorbei nach oben „gelüftet“, wo sie in der dünnen Luft (Zone B) einfach ins Weltall abgestrahlt wird (Kühlrippen-Effekt, Bild 3).
Das Fazit für das Manifest:
Das Argument der „Milliarden Moleküle in der Luftsäule“ ist ein statistischer Trick, um von der energetischen Bedeutungslosigkeit eines Spurengases abzulenken. 0,04 % bleiben 0,04 % – egal, wie hoch man den Stapel rechnet. In einem System, das von Konvektion (Aufstieg) und Wasserdampf dominiert wird, bleibt die theoretische „Rückstrahlung“ einer Luftsäule ein mathematisches Gespinst ohne messbare Wirkung auf das reale Wettergeschehen.
11. Der „Gift-Vergleich“ – Ein logischer Kategorienfehler
Wenn die Fakten zur thermodynamischen Ohnmacht von 0,04 % CO₂ auf den Tisch kommen, flüchten sich Gegner oft in die Gift-Analogie: „Ein Tropfen Gift im Körper tötet ja auch, obwohl er nur eine winzige Menge ist!“
Dieser Vergleich ist wissenschaftlich unlauter, da er zwei völlig verschiedene Welten vermischt: Biochemie (Toxikologie) und Thermodynamik (Physik).
1. Toxikologie vs. Thermodynamik
Wie Gift wirkt (Biochemie): Gift wirkt durch eine spezifische chemische Reaktion. Ein CO₂-Molekül ist aber kein biologischer Wirkstoff, der „Rezeptoren“ besetzt. Es ist in der Atmosphäre lediglich ein Wärmeüberträger.
Wie Wärme wirkt (Physik): In der Thermodynamik zählen Masse und Energiebilanz. Um die Temperatur einer riesigen Luftmasse (Stickstoff und Sauerstoff) zu verändern, braucht man eine entsprechende Menge an Energie und Trägermolekülen. Ein Anteil von 0,04 % eines Gases kann physikalisch nicht die thermische Kontrolle über die restlichen 99,96 % übernehmen – erst recht nicht, wenn das Haupt-„Treibhausgas“ Wasserdampf (bis zu 4,0 %) die energetische Bühne zu 95 % allein beherrscht.
2. Das Fass und der „letzte Tropfen“
Gegner behaupten, das CO2 sei der „letzte Tropfen“, der das Klimasystem zum Überlaufen bringt (Tipping Points).
Die Realität: Diese Analogie setzt voraus, dass das System am Limit steht. Aber die Erde befindet sich seit Jahrmillionen in einem dynamischen Gleichgewicht mit CO₂-Werten, die oft zehnmal höher waren als heute (bis zu 4.000 ppm), ohne dass die Meere verdampft wären.
Die Sättigungs-Falle: Selbst wenn wir beim Gift-Vergleich bleiben: Wenn alle Rezeptoren im Körper bereits durch Gift besetzt sind (Sättigung), bewirkt eine weitere Dosis nichts mehr. Wie wir in Bild 9 bewiesen haben, ist das Infrarot-Fenster des CO₂ bereits bei der heutigen Konzentration fast vollständig „zu“. Jedes weitere Molekül ist wie ein Tropfen Gift, der in einen Körper geschüttet wird, der bereits zu 100 % gesättigt ist – es gibt keine physikalische Angriffsfläche mehr für eine Zusatzwirkung.
3. Der wahre Vergleich: Das Dämmmaterial
Ein ehrlicher physikalischer Vergleich wäre die Dämmung eines Hauses:
Wenn Sie ein Haus haben, dessen Wände zu 99,9 % aus dünnem Stoff bestehen (Stickstoff/Sauerstoff), wird eine winzige Spur Dämmmaterial (0,04 % CO₂) das Haus niemals warm halten können. Die Wärme zieht einfach durch die restlichen 99,9 % der Fläche ab.
Zudem ist die Atmosphäre kein geschlossenes Haus, sondern sie hat ein offenes Dach (Konvektion, Bild 3 & 4). Den „letzten Tropfen“ gibt es nicht in einem System, das nach oben hin ständig Energie ins Weltall entlässt.
Das Fazit für das Manifest:
Der Gift-Vergleich ist ein manipulativer Taschenspielertrick. Er versucht, physikalische Massengesetze durch biochemische Ängste zu ersetzen. In der Thermodynamik regiert die Quantität. 0,04 % eines Spurengases können gegen die gewaltige Masse der restlichen Atmosphäre, die Ozeane und die Sonne keinen „Umschlagpunkt“ erzwingen.
Prof. Ian Plimer – Die Klimalüge 1
Prof. Ian Plimer – Die Klimalüge 2
Prof. Ian Pilmer – Die Klimalüge 3
Prof. Ian Pilmer – Die Klimalüge 4
Joachim Bublath (ZDF) – Als man noch die Wahrheit sagen durfte
Dieses Kapitel erläutert die tatsächlichen Mechanismen, die das Erdklima seit Jahrmillionen steuern, und korrigiert das Fehlurteil über die Rolle von Spurengasen durch die Einbeziehung realer physikalischer Arbeit und solarer Zyklen.
1. Der echte Treibhauseffekt
Das Glashaus-Märchen: Warum die Erde kein Treibhaus ist – Prolog für Schlafschafe
Stell dir ein echtes Gewächshaus im Garten vor. Warum wird es darin so warm? Die Antwort ist kinderleicht, wird aber beim Thema Klima völlig falsch erklärt.
1. Wie ein echtes Treibhaus funktioniert (Die Wahrheit): Die Sonne scheint durch das Glas und macht den Boden warm. Der Boden wärmt dann die Luft direkt darüber auf. Jetzt passiert das Wichtigste: Warme Luft steigt immer nach oben. Im Gewächshaus stößt diese warme Luft aber gegen das Glasdach. Sie kann nicht weg! Das Glas wirkt wie ein echter Deckel auf einem Kochtopf. Die Wärme wird darin einfach mechanisch eingesperrt, weil die Luft nicht abziehen kann. Das nennt man „eingesperrte Wärme“ (Konvektionsstau).
2. Warum die Atmosphäre ganz anders ist (Die Lüge): Die CO₂-Gläubigen erzählen uns, das Gas in der Luft würde wie das Glasdach eines Treibhauses wirken. Aber schau mal in den Himmel: Da ist kein Glasdach! Unsere Atmosphäre ist nach oben hin völlig offen. Wenn die Sonne den Boden warm macht, steigt die warme Luft ungehindert kilometerhoch auf und nimmt die Wärme mit nach oben. Es gibt keinen Deckel, der sie aufhält.
3. Wasserdampf ist der wahre Riese: In einem feuchten Gewächshaus merkst du es sofort: Die feuchte Luft speichert die Wärme viel besser. Der unsichtbare Wasserdampf (Wolkenvorstufe) macht fast die gesamte Wärmearbeit. Das bisschen CO₂ (nur 0,04 % der Luft!) spielt da physikalisch überhaupt keine Rolle. Es ist, als würde man behaupten, ein einzelnes Sandkorn könne den Kurs eines ganzen Schiffes bestimmen.
4. Der Trick mit dem Namen: Man benutzt das Wort „Treibhauseffekt“ nur, weil es jeder kennt. Aber physikalisch ist es ein Betrug. Ein echtes Treibhaus ist zu (Deckel drauf), die Erde ist nach oben offen (Wärme kann weg). Wer behauptet, das sei das Gleiche, der will dich täuschen. In der freien Natur wird die Wärme durch Wind und aufsteigende Luft sofort abtransportiert – das CO₂ kann da gar nichts „festhalten“.
Das Fazit für dich: Lass dich nicht einlullen. Ein Treibhaus braucht ein festes Dach, um warm zu werden. Die Erde hat kein Dach. Die Wärme entweicht nach oben, und das CO₂ ist viel zu schwach, um daran etwas zu ändern. Der „Treibhauseffekt“ in der Luft ist ein Rechenfehler auf dem Papier, kein echtes physikalisches Gesetz.
Der echte Treibhauseffekt im Treibhaus
Erläuterung für Aufgewachte
Um die aktuelle Klimadebatte zu verstehen, muss man zunächst den Begriff des „Treibhauseffekts“ entmystifizieren. Der echte Treibhauseffekt, wie wir ihn aus Gewächshäusern, Wintergärten oder einem in der Sonne geparkten Auto kennen, beruht primär auf der Unterdrückung der thermischen Konvektion – also auf einem mechanischen Wärmestau.
In einem Gewächshaus passiert Folgendes: Die Sonne strahlt kurzwellige Energie (sichtbares Licht und UV) ungehindert durch das Glas ein. Diese Energie wird von den Pflanzen und dem Boden absorbiert und in Wärme umgewandelt. Die erwärmten Oberflächen geben diese Energie nun auf zwei Wegen wieder ab: erstens als langwellige Infrarotstrahlung (Wärmestrahlung) und zweitens durch direkten Kontakt mit der Luft (Wärme-Konvektionsprinzip).
Hier liegt der entscheidende Punkt: Die Luft im Gewächshaus erhitzt sich nicht primär durch das Einfangen der Infrarotstrahlung, sondern weil sie über den aufgeheizten Boden streicht und dessen gespeicherte Wärme kinetisch übernimmt. Da das Glasdach die erwärmte Luft physisch daran hindert, aufzusteigen und in die kältere Umgebung zu entweichen, beginnt ein Kreislauf. Die Luft zirkuliert im geschlossenen System, sinkt wieder ab und wird am Boden erneut aufgeheizt. Das Glas dient hier als materielle Barriere, die den natürlichen Austausch unterbindet.
Auch die Rolle der Feuchtigkeit ist im Gewächshaus entscheidend: Das Gießwasser verdunstet und reichert die Luft mit Wasserdampf an. Dieser Wasserdampf ist ein hocheffizientes Medium für die Wärmeübertragung durch Konvektion und überstrahlt die Wirkung der winzigen 0,04 % CO₂🔍 im Innenraum bei weitem. Die Behauptung, Glas würde Infrarotstrahlung komplett blockieren, ist zudem unpräzise; vielmehr blockiert Glas UV-Licht zu etwa 60 %, während der Haupteffekt des „Glashauses“ schlicht das Festhalten der warmen Luftmasse ist.
Die atmosphärische Unterscheidung: Kaum ein Begriff wird heute so schamlos missbraucht wie der des „Treibhauseffekts“. Der Treibhauseffekt der Atmosphäre ist von den Prozessen im Gewächshaus physikalisch grundlegend zu unterscheiden. Während das Gewächshaus ein geschlossenes System mit einer Barriere gegen Konvektion ist, ist unsere Atmosphäre ein offenes System, in dem warme Luftmassen ungehindert aufsteigen können.
Der atmosphärische Effekt beruht rein theoretisch auf der Absorption von Wärmestrahlung durch Spurengase. Doch während der Wärmestau im Glashaus sofort messbar und real ist, bleibt der atmosphärische Treibhauseffekt durch CO₂🔍 in der freien Natur ein rechnerisches Konstrukt. Er ist real kaum messbar und wird in der untersten Schicht der Atmosphäre sofort von den gewaltigen Kräften der Luftzirkulation und der latenten Wärme des Wasserdampfs überlagert. Wer beides gleichsetzt, ignoriert die fundamentale Thermodynamik und nutzt einen populärwissenschaftlichen Begriff, um eine physikalische These zur unumstößlichen Wahrheit zu verklären.
2. Der solare Motor und das energetische Signal
Wir müssen begreifen: Sonnenstrahlung ist kein heißer Wind, sondern ein energetisches Signal. Wärme entsteht erst dort, wo Materie dieses Signal empfängt und in Teilchenbewegung umsetzt. Da die Luftmoleküle (Stickstoff und Sauerstoff) für das kurzwellige Sonnenlicht nahezu „blind“ (transparent) sind, bleibt die Atmosphäre kalt, bis der Erdboden die Energie absorbiert und durch direkten Kontakt (Konvektion) an die Luft weitergibt. Wer behauptet, ein Spurengas könne diesen gewaltigen Prozess von oben herab durch „Rückstrahlung“ steuern, ignoriert, dass Wärme eine kinetische Eigenschaft dichter Materie ist und nicht durch eiskalte Frequenzen aus der Stratosphäre erzeugt werden kann. Die Sonne ist der alleinige Motor; die Atmosphäre ist lediglich der Kühlkörper und Transporteur.
3. Die Energie-Bilanz-Falle (Die 10%-Hürde)
Warum Infrarot-Rückstrahlung eine mathematische Illusion ist: Die offizielle Klimaphysik begeht einen fundamentalen Fehler, indem sie die Erde wie einen passiven „Schwarzkörper“ behandelt, der alle aufgenommene Energie sofort als Infrarotstrahlung abgibt. In der Realität werden maximal 10 % bis 15 % der solaren Energie überhaupt als langwellige Infrarotstrahlung emittiert.
Reflektion (Albedo): Über 30 % der kurzwelligen Strahlung wird sofort von Wolken, Eis und hellen Bodenflächen reflektiert, bevor sie in Wärme umgewandelt werden kann.
Ozeanische Speicherung: Die Ozeane (70 % der Erdoberfläche) speichern Sonnenenergie tief im Wasser (bis zu 100 Meter). Diese Energie wird als kinetische Wärme über Jahrzehnte gespeichert und physisch transportiert, statt abgestrahlt zu werden.
Konvektion (Thermik): Landmassen leiten die Energie sofort durch physische Luftbewegung ab – die Wärme steigt als warme Luft nach oben, statt als Photon zu strahlen.
Latente Wärme: Die Verdunstung von Wasser verbraucht gewaltige Energiemengen, die als „latente Wärme“ im Wasserdampf gespeichert und erst in großen Höhen beim Kondensieren wieder frei werden – sie umgehen die bodennahen CO₂-Schichten vollständig.CO₂ „kämpft“ also nur um den kläglichen Rest von ca. 10 % der Energie, der nicht bereits mechanisch oder ozeanisch abgeführt wurde.
Die Energiebilanz-Falle
Es gibt nur eine 10 %-ige langwellige Infrarot-Rückstrahlung. Stattdessen visualisieren wir jetzt die dichteabhängige Thermodynamik:
Die solare Aufladung (links): Zeigt die kurzwellige Sonnenstrahlung, die transparente Luft durchquert und erst am dichten Boden Wärme erzeugt (Konvektion).
Die mechanischen Ableitungen (über 85-90%): Zeigt, wohin die Energie physisch, ozeanisch oder mechanisch abgeleitet wird. Nur ein winziger Rest (die Hürde, um die CO₂ „kämpft“) wird überhaupt als IR-Strahlung emittiert.
Die physikalische Abstrahlung (rechts): Dies ist der entscheidende Punkt. Wir zeigen eiskaltes CO₂ (-50°C) in der Stratosphäre, das IR-Strahlung ausschließlich nach oben in das eiskalte Weltall (-270°C) abgibt. Ein fetter roter Pfeil nach unten, der die warme Erde heizt, ist physikalisch unmöglich und wurde entfernt. Ein Textkasten stellt klar: „KEINE RÜCKSTRAHLUNG VON KALT NACH WARM! CO₂ WIRKT ALS KÜHLRIPPE NACH OBEN.“
Die Energiebilanz-Falle 2
Die obige Grafik zeigt die rechnerische Unmöglichkeit der CO₂-Steuerung. Die Klimamodelle ignorieren die dominanten, physischen Kräfte:
Solarer Motor: Die Sonne (kurzwellige Strahlung) heizt den Planeten am Boden, blind für CO₂.
Die mechanischen Ableitungen (über 85-90 %): Wärme wird am CO₂ vorbei durch Konvektion (Thermik), latente Wärme (Wasserdampf-Zyklus), und vor allem durch die gigantische thermische Trägheit der Ozeane (thermohaline Zirkulation) abgeleitet.
Die Strahlungs-Falle (maximal 10-15 %): Nur dieser winzige Reststrom wird überhaupt als Infrarotstrahlung (IR) emittiert. Die Grafik entlarvt die „Rückstrahlung“: Das meiste IR-Wärme wird am CO₂ vorbei direkt ins All abgestrahlt. Es gibt keine CO₂-Rückstrahlung, die Wärme staut. CO₂ „kämpft“ lediglich um den kläglichen Rest der Energie.
Fazit für das Manifest: Die rechnerische Hürde von über 85-90% beweist, dass CO₂ rechnerisch niemals der Klimatreiber sein kann. Es ist chronologisch das Echo, thermodynamisch die Kühlrippe und rechnerisch eine vernachlässigbare Größe.
4. Materie-Resonanz: Land, Wasser, Wolken und Eis
Die Reaktion der Erdoberfläche auf die Sonne hängt allein von der Beschaffenheit der Materie ab:
Eis und Schnee: Haben eine Albedo von bis zu 90 %. Sie reflektieren die Sonnenstrahlung fast vollständig zurück ins All, bevor Wärme entstehen kann. Schmilzt das Eis (ausgelöst durch solare Zyklen), sinkt die Albedo drastisch und die Absorption steigt – ein natürlicher Prozess.
Landmassen: Erwärmen sich rasch aufgrund geringer Wärmekapazität, speichern die Wärme aber kaum. Sie geben die Energie sofort durch Konvektion an die Luft ab (Thermik).
Wasser (Ozeane): Sind die gigantischen Batterien der Erde. Wasser hat eine extrem hohe Wärmekapazität. Sonnenstrahlung dringt tief ein und wird dort gespeichert. Einmal erwärmte Ozeane bestimmen das Klima über Jahrzehnte nach, während die Lufttemperatur darüber nur ein flüchtiges Symptom ist.
Der Svensmark-Effekt: Der dänische Physiker Henrik Svensmark hat nachgewiesen, dass die Sonne das Klima über den magnetischen Schutzschirm steuert. Kosmische Strahlung ionisiert die Atmosphäre und erzeugt Kondensationskeime für Wolken. Eine aktive Sonne reduziert diesen Prozess, was zu einem klaren Himmel und Erwärmung führt. Dieser Mechanismus, bestätigt durch das CLOUD-Experiment am CERN, erklärt die Mittelalterliche Warmzeit sowie die Kleine Eiszeit perfekt – ganz ohne den Einfluss von CO₂.
Die Grafik visualisiert das wahre physikalische Steuerwerk des Erdklimas und demaskiert das CO₂-Märchen. Sie zeigt, warum die Klimazyklen solar gesteuert werden und CO₂ lediglich ein verspätetes chemisches Echo ist:
Fazit für das Manifest: Die unverfälschten Vostok-Daten und der Svensmark-Effekt beweisen, dass die Sonne und das ozeanische Gedächtnis die wahren Klimatreiber sind. CO₂ ist ein unbefugter Beobachter der Sonnenaktivität. Klimaschutz ist ökonomische Selbstzerstörung ohne jeden physikalischen Hebel.
Hohes Solares Signal (links – MWP/Heute): Die Sonnenaktivität ist hoch, das Magnetfeld stark. Es schirmt die Erde vor kosmischer Strahlung ab. Weniger Ionen-Zentren (Kernungspartikel) entstehen in der Atmosphäre. Das führt zu wenig Wolkenbildung (niedrige Albedo). Die Sonnenstrahlung kann die Erde ungehindert erwärmen. Der heutige CO₂-Anstieg ist nur das 800-jährige Echo der Mittelalterlichen Warmzeit (MWP).
Niedriges Solares Signal (rechts – LIA/MWP): Die Sonnenaktivität ist niedrig, das Magnetfeld schwach. Viel kosmische Strahlung bombardiert die Erde. Mehr Ionen-Zentren entstehen, was zu viel Wolkenbildung (hohe Albedo) führt. Wolken reflektieren die Sonnenstrahlung zurück ins All. Die Erde kühlt sich ab (Kleine Eiszeit – LIA).
5. Das thermische Echo: Die Antwort der Ozeane auf das Mittelalter
Die Wahrheit über das Erdklima liegt nicht in der Luft, sondern in der Tiefe der Weltmeere. Durch die thermohaline Zirkulation – das globale Förderband der Meere – erreicht die Wärmeenergie einer Epoche erst Jahrhunderte später die Zonen, in denen Gase wieder an die Atmosphäre abgegeben werden.
Die solare Aufladung (950–1250 n. Chr.): Eine Phase extrem hoher solarer Aktivität (Mittelalterliche Warmzeit) heizte die Erde und die Ozeane massiv auf.
Die ozeanische Wanderung: Diese Wärmeenergie benötigte gemäß der ozeanischen Umwälzzeit ca. 800 bis 1000 Jahre, um die tiefen Kohlenstoffspeicher zu erreichen.
Das Henry-Gesetz heute: Nach Ablauf dieser Zeitspanne erreicht das damals erwärmte Wasser heute die Oberfläche. Da warmes Wasser physikalisch weniger CO₂ binden kann, gasen die Ozeane jetzt das aus, was sie vor 800 Jahren absorbiert haben.Der Sprung von 280 auf 400 ppm ist somit die präzise chemische Entladung der mittelalterlichen Sonnenenergie – ein thermisches Echo. Die Weltmeere speichern 50-mal mehr Kohlenstoff als die Luft. Gemäß dem Henry-Gesetz ist der CO₂-Gehalt der Atmosphäre eine direkte Funktion der Wassertemperatur. Eiskernbohrungen (Vostok, EPICA) belegen unumstößlich: Bei jedem Klimaumschwung der letzten 420.000 Jahre stieg zuerst die Temperatur und erst ca. 800 Jahre später folgte das CO₂. Da eine Ursache niemals nach der Wirkung eintreten kann, ist CO₂ physikalisch als Klimatreiber ausgeschlossen.
6. Der unbestechliche Zeuge aus dem Eis: Beryllium-10
In antarktischen Eiskernen finden wir das Isotop Beryllium-10, welches durch kosmische Strahlung entsteht. Diese Daten sind ein unbestechliches Archiv der Sonnenaktivität und zeigen eine perfekte Korrelation über Jahrtausende:
Hohe Be10-Konzentrationen: Deuten auf ein schwaches Sonnenmagnetfeld hin. Dies lässt mehr kosmische Strahlung eindringen, was zu massiver Wolkenbildung führt (Svensmark-Effekt) und Kaltzeiten auslöst.
Niedrige Be10-Werte: Deuten auf eine starke Sonne hin. Das starke Magnetfeld schirmt die kosmische Strahlung ab, es entstehen weniger Wolken, die Albedo sinkt und die Erde erwärmt sich.Die Sonne steuert über ihren magnetischen Schutzschirm die Erdalbedo; das CO₂ ist hierbei nur ein passiver Beobachter der solaren Macht.
7. Der unschlagbare Partner: Wasserdampf (H₂O)
Wasserdampf ist das mit Abstand mächtigste Treibhausgas und dominiert die Strahlungsbilanz zu über 90 %. Sein Gehalt in der Luft wird rein thermisch durch die Sonne und die Ozeantemperatur gesteuert. CO₂ wirkt lediglich als winziger, sekundärer Isolator, dessen Einfluss gegenüber dem gewaltigen Wasserdampf-Haushalt und der solaren Variabilität im statistischen Rauschen untergeht.
Die aktuelle Klimapolitik beruht auf der fatalen Annahme, dass ein Spurengas mit einem Anteil von lediglich 0,04 % der alleinige Steuermann des globalen Klimas sei. Wir fordern eine Rückkehr zur ganzheitlichen Naturwissenschaft, die die Hierarchie der energetischen Kräfte anerkennt: Die Sonne ist der Motor, das CO₂ ist ihr Symptom und ein sekundärer, jedoch physikalisch begrenzter Verstärker.
Es gibt keinen Treibhauseffekt außerhalb eines Treibhauses. Alles andere ist ein politisches Narrativ, das die physikalische Realität ignoriert.
Auf Basis der in den Kapiteln „Lüge“ und „Wahrheit“ dargelegten physikalischen Fakten, historischen Daten und chronologischen Kausalketten ziehen wir das abschließende Fazit: Die aktuelle Klimapolitik beruht auf der fatalen Annahme, dass ein Spurengas mit einem Anteil von lediglich 0,04 % der alleinige Steuermann des globalen Klimas sei. Wir fordern eine sofortige Rückkehr zur ganzheitlichen Naturwissenschaft, welche die Hierarchie der energetischen Kräfte anerkennt.
1. Ursache vor Wirkung (Das Kausalitäts-Fazit)
Eine Ursache kann niemals zeitlich nach ihrer Wirkung eintreten. Wissenschaftlich unbestreitbar belegen Eiskernbohrungen (Vostok, EPICA), dass bei jedem Klimaumschwung der letzten 420.000 Jahre zuerst die Temperatur anstieg und das CO₂ erst mit einer Verzögerung von ca. 800 Jahren folgte. Wenn die Temperatur dem CO₂-Anstieg stets vorausgeht, ist CO₂ historisch gesehen ein Symptom der Erwärmung, nicht deren Motor. Da die Ozeane heute aufgrund der vorangegangenen solaren Aktivitätsmaxima des 20. Jahrhunderts und der Mittelalterlichen Warmzeit noch immer nachwärmen, ist der aktuelle CO₂-Anstieg schlicht das physikalisch zwingende Resultat dieser ozeanischen Trägheit. Wir bekämpfen heute das Echo, während wir den Ruf der Sonne ignorieren.
2. Die Befreiung von der CO₂-Schuld: Ein Blick zurück nach vorn
Die moralische Erpressung einer „menschengemachten Katastrophe“ bricht in sich zusammen, sobald der Faktor Zeit korrekt einberechnet wird. Wenn die Wissenschaft belegt, dass die heutige CO₂-Konzentration die direkte Folge einer natürlichen Warmzeit im Mittelalter (vor ca. 800 bis 1000 Jahren) ist, verliert das CO₂-Narrativ sein Fundament. Wir werden heute für die Sonnenstrahlen des 12. Jahrhunderts besteuert. Wer den Menschen die alleinige Schuld am CO₂-Anstieg gibt, leugnet die physikalische Trägheit der Ozeane und die Souveränität solarer Zyklen. Ein Kampf gegen CO₂ ist ein Kampf gegen die Erdgeschichte und den natürlichen Stoffkreislauf des Planeten.
3. Die „anthropogene Störung“: Ein vernachlässigbarer Bruchteil
Luft besteht zu 99,96 % aus Gasen, die für Wärmestrahlung blind sind. Der CO₂-Anteil beträgt lediglich 0,04 % (400 ppm). Von diesen 0,04 % sind wiederum über 96 % natürlichen Ursprungs (Vulkane, Ozeane, Verrottungsprozesse). Der rein menschliche Anteil an der gesamten Atmosphäre beträgt somit lediglich ca. 0,0016 %. Wer behauptet, dass dieser homöopathische Bruchteil das Weltklima steuert, während die 96 % der Natur wirkungslos bleiben sollen, verlässt den Boden der rationalen Wissenschaft und betreibt magisches Denken. Es gibt keinen physikalischen Beleg dafür, dass 0,0016 % eines Gases ein globales System gegen die gewaltigen Kräfte der Sonne und der Ozeane stabilisieren oder destabilisieren könnten.
4. Das Versagen der Modelle und die Ideologie-Falle
Klimamodelle sind keine objektiven Abbilder der Realität, sondern komplexe Computerprogramme, die auf voreingenommenen Parametern basieren. Wie in der Sektion über das IPCC hergeleitet, werden diese Modelle genutzt, um politische Zielsetzungen wissenschaftlich zu legitimieren. Das „Divergenz-Problem“ (Hiatus-Phasen, in denen die Temperatur stagniert, obwohl das CO₂ steigt) beweist, dass der solare Motor das CO₂-Symptom jederzeit übersteuern kann. Eine Politik, die Billionen in die Vermeidung eines Symptoms (CO₂) steckt, während sie die Ursache (Sonne) nicht beeinflussen kann, gefährdet die wirtschaftliche Existenzgrundlage unserer Zivilisation.
Diese Grafik macht das mathematische und physikalische Scheitern der aktuellen Klimapolitik deutlich:
Die politische Sackgasse: Die Politik versucht, das CO2-Niveau durch Verbote zu senken, während die Ozeane das System physikalisch dominieren. Das ist ökonomischer Aufwand ohne physikalische Hebelwirkung.
Das Mengenverhältnis: Der menschliche Anteil an der gesamten Atmosphäre beträgt verschwindende 0,0016 %. Es widerspricht jeder ingenieurwissenschaftlichen Logik, dass eine so winzige Stellgröße ein globales, thermodynamisches System kontrollieren könnte.
Die ozeanische Dominanz: Die Weltmeere halten 50-mal mehr CO2 bereit als die Atmosphäre. Gemäß dem Henry-Gesetz bestimmen die Wassertemperaturen (mit dem 800-jährigen Echo), wie viel CO2 in der Luft ist.
5. Forderungen für eine rationale Energie- und Umweltpolitik:
Resilienz vor Ideologie: Wir fordern massive Investitionen in reale Anpassungsmaßnahmen statt in symbolische CO₂-Vermeidung. Dies beinhaltet Küstenschutz, intelligentes Wassermanagement und die Entwicklung einer hitzeresistenten Landwirtschaft.
Sicherung der Energiedichte: Der technologische Fortschritt und der Erhalt der industriellen Basis erfordern hocheffiziente Energieträger. Der ideologisch motivierte Ausstieg aus der Kernkraft ist physikalischer Unsinn. Wir benötigen die höchste verfügbare Energiedichte, um die Kosten der realen Umweltanpassung zu tragen.
Ganzheitlicher Naturschutz: Wahrer Umweltschutz bedeutet den Erhalt von Ökosystemen und Wasserkreisläufen sowie die Wiederherstellung der natürlichen Albedo durch Begrünung. Die großflächige Landschaftsversiegelung durch industrielle Windkraftanlagen unter dem Deckmantel des „Klimaschutzes“ ist ökologischer Wahnsinn und zerstört genau die Natur, die sie zu schützen vorgibt.
Schutz vor realen Giften: Wir fordern eine Konzentration auf den Schutz vor echten Umweltgiften und Schadstoffen in Wasser, Boden und Luft, anstatt ein lebensnotwendiges Spurengas (CO₂), welches die Basis allen pflanzlichen Lebens auf der Erde ist, zu dämonisieren.
Abschluss: Das Thermometer ist nicht die Heizung
CO₂ verhält sich zum Klima wie ein Thermometer zur Raumtemperatur: Es zeigt an, dass es wärmer wird, und trägt als sekundärer Isolator minimal zur Erhaltung der Wärme bei. Aber es hat niemals den „Brand“ gelegt. Eine Politik, die das Thermometer zerschlägt oder seine Anzeige mit Steuern belegt, um die Hitze der Sonne zu bekämpfen, handelt nicht wissenschaftlich, sondern magisch. Wir fordern das Ende der Moralisierung der Physik und eine Rückkehr zur ganzheitlichen, ideologiefreien Naturwissenschaft.
… einfach cool bleiben, so wie die Temperaturen es seit ein paar tausend Jahren tun!
Wie sollte sich Deutschland künftig alternativ zur woken Klimahysterie-Industrievernichtung sachlich mit den Gegebenheiten auseinandersetzen? Klimaveränderungen sollten als „natürlich“ akzeptiert werden. Der Mensch als Teil der Natur hat immer schon auf Klimaveränderungen reagiert.
Sinnlose Investitionen und Förderungen umstrittener Technologien sind zu unterlassen. So kann es nicht sein, dass tagsüber Strom aus Solarkraftwerken an Drittstaaten geliefert wird und dafür diese Drittstaaten mit Geldzuwendungen „überredet“ werden, diesen überflüssigen Strom abzunehmen. Der Import von Atomstrom zum Ausgleich von Lieferengpässen ist ebenfalls ein unlogischer und völlig widersinniger Vorgang, unvereinbar mit dem gesunden Menschenverstand.
Der Kohleausstieg wurde in Deutschland auf 2038 datiert und vertraglich zementiert, damit die Arbeitenden und deren Familien sowie die entsprechenden Länder und Kommunen Zeit haben, sich umzustellen und Abfederungs-Maßnahmen umzusetzen. Dazu gibt es Absprachen, Zusagen, Förderpläne und Sicherheiten für die Menschen, die in dieser Industrie beschäftigt sind.
Unbeachtet ist die Tatsache, dass aktuell 1380 neue Kohlekraftwerke weltweit in Planung sind. Diesen Ausstieg noch zu beschleunigen, obwohl überhaupt nicht bewiesen ist, dass das eine Wirkung zeigt, ist dumm! Aber wir wissen, dass sich Altparteien-Klientel nie an Absprachen hält. Es sind elende Wichte, die sich an den Interessen Deutschlands und den Bürgern dieses Landes vergehen.
Diese Darstellungen zeigen, dass Deutschland seit 1990 seinen Ausstoß an CO₂ (gelbe Linie) auf 61,2 % (- 39,8 %) reduziert hat. Trotzdem steigen die Temperatur und der weltweite CO₂-Ausstoß kontinuierlich. Welche Wirkung wird also mit der wünschenswerten CO₂-Reduzierung durch Deutschland erzielt? KEINE, im Gegenteil, wird unsere Anstrengung durch China und Indien mehr als aufgezehrt, wobei Indien und China von einem anderen Niveau aus starteten. Kritiker sollen mir bitte das Gegenteil beweisen!
CO2 Ausstoß Rückgang
CO2 pro Kopf Emissionen weltweit.
Die Anstrengungen Deutschlands bei der Absenkung der Erzeugung diverser Spurengase und die Nicht-Wirksamkeit dieser Maßnahmen sind fatal, werden aber trotzdem negiert und ein „weiter so“ und noch viel mehr davon werden propagiert.
Deutschland hat seine Schuldigkeit getan und Anstrengungen unternommen, den CO₂-Ausstoß zu verringern, trotz extrem gesteigerter Produktion.
Die linksgrüne Clique sollte mal ihr Maul in China aufreißen oder den Amerikanern etwas vom Pferd erzählen.
Der Abgleich von Emissions- und Temperaturdaten zeigt eindeutige Zusammenhänge. Aber welcher davon ist Henne und welcher ist das Ei? Die Messung von Emissionsdaten begann viel später als die Messung von Temperaturen. Hier werden Temperaturen seit 1850 dargestellt. Es wird nicht gesagt, wo gemessen wurde. Wahrscheinlich nicht in Afrika, sodass die angegebenen Temperaturen wahrscheinlich nur Werte aus Europa und Nordamerika abbilden. Das Gleiche gilt für die Emissionsdaten, erst 100 Jahre später.
Schon Erzbischofs Argobard von Lyon, ein Zeitgenosse Karls des Großen, hat vorausgesehen, welche neuen Propheten auftauchen könnten, wenn der Glaube nur groß genug gemacht wird. Er schreibt in einem Bericht:
„In diesen Gegenden glauben fast alle Leute, dass Hagel und Donnerwetter durch den Willen von Menschen hervorgerufen werden könnten. Sobald sie den Blitz sehen und den Donner hören, sagen sie: Das ist Aura levatitia. Wenn man sie aber fragt, was Aura levatitia ist, so versichern sie, die einen scheu, da sie doch ihr Gewissen ein wenig beißt, die andern zuversichtlich, wie es unwissende Leute zu tun pflegen, die Gewitterluft sei durch Beschwörungen von Leuten, die man Wettermacher (tempestarii) nennt, heraufgeholt worden“.
(Karl der Große war von 768 bis 814 König des Fränkischen Reichs.)
Wenn man also demnächst mal wieder unter weggeschmolzenen Gletschermassen einen 2000 Jahre alten Passweg entdeckt, der in römischer Zeit fleißig benutzt wurde, sollte man als gebildeter Bürger in der Lage sein, seine paranoide Klimahysterie vielleicht infrage zu stellen.
Genau der gleiche Unsinn wird über den Nordpol, Grönland und die Antarktis ausgeschüttet. Es ist scheinbar unmöglich zu berichten, dass die Antarktis aktuell die tiefsten Temperaturen aufweist, seit es Messungen gibt oder Gletscher in Grönland und der Antarktis deshalb zurückgehen, weil geothermische Prozesse unter der Oberfläche brodeln und nicht irgendeine Klimaerwärmung ursächlich ist.
Das Horrormärchen der Weltuntergangs-Propheten bezüglich eines vom Menschen gemachten Klimawandels, festgemacht an der Eisschmelze Grönlands, ist blanker Unsinn!
Was werden die nachfolgenden Generationen wohl über unsere Zeit schreiben?
Und nun, liebe Gemeinde? Weiter machen, mit untauglichen Methoden, mit Selbstaufopferung? Fragen wir die Bürger dieses Landes, ach ja, haben wir ja gerade. 85 % wollen mit diesem Mist nichts zu tun haben!
Im Gegensatz zur woken Verschwörungspraktik, Kernenergie zu verteufeln, sollte sich Deutschland künftig wieder sehr intensiv mit dieser Art der Energieerzeugung auseinandersetzen, Kernkraftwerke weiterbetreiben und Geld in Forschung und Entwicklung investieren.
Der Energiesektor sollte daher mit 2 % BIP gefördert werden. Von günstiger, nachhaltiger und verfügbarer Energie hängt unser Wohlstand und der Wohlstand künftiger Generationen ab. Deutschland muss Vorreiter in Forschung und Ausbau solcher Technologien werden und bleiben, um auch eine Unabhängigkeit von Dritten zu gewährleisten, wenn der Energiebedarf noch weiter ansteigt. Lächerliches und rückwärtsgewandtes Biogetue geht mir auf die Nerven und ist noch sinnstiftend.
Kohleverstromung dort, wo sie wirtschaftlich und nachhaltig sinnvoll ist, sollte weiterbetrieben werden. Rein ideologisch herbeigeführte Entscheidungen sind rückgängig zu machen. Ganze Landstriche unserer Heimat den wirtschaftlichen Boden unter den Füßen wegzuziehen, gehört nicht zu meinem Weltbild. Dort, wo es tatsächlich nicht anders geht, sind Ausgleiche zu schaffen.
Am Ende ist es zulässig, über die Gefahr einer globalen Erwärmung nachzudenken. Die CO₂-Konzeptration in der Erd-Atmosphäre ist aktuell auf einem niedrigen Level. In der Erdgeschichte lag diese Konzentration meist über dem aktuellen Level. Zur Zeit des großen Ausbruchs lag sie 10x höher als heute. Die ideale Konzentration für das Pflanzenwachstum liegt 5x höher als aktuell. Jegliche Verbrennung fossiler Materie ist biologisch gesehen, grüneEnergie, da jegliches fossiles Material organischen Ursprungs ist. Was also ist das Problem der linksgrünen Katastrophen-Sekte?
Hier die angeblichen Fakten, warum die globale Erwärmung so gefährlich ist:
Klimaextreme
Die Erderwärmung führt zu immer häufigeren und intensiveren Wetterextremen wie Hitzewellen, Dürren, Stürmen, Überflutungen und Waldbränden. Diese Ereignisse können zu Schäden an Eigentum und Infrastruktur, Verletzungen und sogar zum Tod führen.
Hier wird Klima und Wetter verwechselt.
Meeresspiegelanstieg
Durch das Schmelzen von Eis auf den Polkappen und Gletschern sowie durch die Ausdehnung von Wasser aufgrund der Erwärmung dehnen sich die Ozeane aus. Dies führt zu einem Anstieg des Meeresspiegels, der überflutete Küstenstädte und Gemeinden sowie die Verschlechterung der Trinkwasserqualität und des Ökosystems verursachen kann.
Es gibt keinen Beweis des Anstiegs des Meeresspiegels. Der Meeresspiegel würde auch nicht ansteigen, wenn oder weil Eis schmilzt. Das ist physikalisch nicht erklärbar. Geschmolzenes Eis verringert sein Volumen um den Anteil, den es bei der Vereisung zugenommen hat. Es ist ein Null-Summen – Spiel.
Ökosysteme
Die Erderwärmung beeinträchtigt die natürlichen Ökosysteme, indem sie den Lebensraum für Tiere und Pflanzen verringert. Dies kann zu Artensterben, Nahrungsmittelknappheit und destabilisierten Ökosystemen führen.
Das ist Unsinn. Eine globale Erwärmung fördert im Gegensatz zu dieser Behauptung die Artenvielfalt und damit Wachstum. CO₂ ist der Treibstoff des Lebens.
Gesundheit
Die globalen Temperaturen können sich negativ auf die menschliche Gesundheit auswirken, indem sie Krankheiten wie Hitzschlag, Dehydration und Asthmaanfälle verursachen.
Das ist auch Unsinn. Menschen leben in allen Klimazonen. Niemand hat je davor gewarnt, dass z. B. Europäer nicht nach Afrika oder Australien reisen sollten, weil das für sie zu gefährlich sei. Außerdem haben es Menschen immer schon verstanden, sich vor höheren Temperaturen zu schützen.
Wirtschaftliche Auswirkungen
Die globale Erwärmung kann auch schwerwiegende wirtschaftliche Auswirkungen haben, indem sie den Landwirtschafts- und Fischereisektor beeinträchtigt, den Tourismus und den Transportsektor destabilisiert und den Zugang zu Rohstoffen und Trinkwasser beeinträchtigt.
Ebenfalls eine unbewiesene Behauptung. Die Wirtschaft soll temperaturabhängig sein? Dann würde die Wirtschaft also im Winter oder an kälteren Tagen brummen und im Sommer oder heißen Tagen erlahmen? Wie absurd ist das denn?
Vor allem das stabile Klima des Holozäns (der letzten 8.000 Jahre bis heute) gilt als ein wichtiger Faktor für die zivilisatorische Entwicklung der Menschheit auf der Erde.
Erneuerbare Energien sorgen für etwa ein Drittel des Stroms in Deutschland
Anteil insgesamt (Strom, Wärme und Verkehr) bei etwa ein Sechstel
Ausbau erneuerbarer Energien vor allem seit Jahr 2000 durch massive Förderung und dadurch Schieflagen und Nachteile für andere Energieversorger
für Zukunft der Erneuerbaren entscheidend: Speicher, Netze und Digitalisierung
Betrachtet man nicht nur den Stromsektor, sondern den gesamten Energieverbrauch in Deutschland, sind die erneuerbaren Energien nach wie vor ein Zwerg. Sie liefern (nach 3,7 Prozent Anteil im Jahr 2000) inzwischen rund 15 Prozent. Der ganz große Brocken mit rund 85 Prozent kommt dagegen weiterhin von den konventionellen Energien Kohle, Erdöl, Erdgas und Atomkraft.
Unter erneuerbare Energien versteht man folgende Erzeugungsarten:
Geothermie
Biomasse/Biogas
Sonnenenergie
Wasserkraft
Windenergie
Mir ist nicht ganz klar, weshalb man hier überhaupt pauschal von regenerativen oder erneuerbaren Energien spricht. Erneuerbar kann ja eigentlich nur etwas sein, was sich von sich aus reproduziert. Bei Sonne, Wasser, Wind und Geothermie bin ich mir da nicht ganz sicher. Da ich aber kein Physiker bin, überlasse ich die Einordnung anderen.
Sonne
Mit einer Brenndauer von noch etwa 4,5 Mrd. Jahren ist sie der Quell unerschöpflicher Energie und sie macht und vor, was wir von ihr lernen sollten, nämlich Kernfusion. Der Abstand zur Sonne beträgt 150 Mio. km und sorgt dafür, dass wir nicht die volle Leistung dieses Kraftwerks anzapfen können.
Geothermie
Geothermie oder auch Erdwärme entsteht durch die Wechselwirkung von eindringendem Wasser in die Erdkruste und deren Aufheizung durch die darunter befindlichen Magmaströme des Erdmantels. Dieses heiße Wasser oder auch Wasserdampf kann direkt genutzt oder in andere Energieformen umgewandelt werden.
Wind
Windenergie steht seit tausenden Jahren zur Verfügung und wird, solange sich die Erde dreht, zur Verfügung stehen. Schon Müller im frühen Mittelalter nutzen die Windenergie, um ihre Mühlen zu betreiben.
Wasser
Energie aus Wasser kann auf mehrfache Weise gewonnen werden. Als potenzielle Energie in Talsperren oder Pumpspeicherkraftwerken, welche das Wasser zum Antrieb von Turbinen zur Umwandlung in elektrischen Strom nutzen. Eine weitere Anwendung sind Wellen- oder Gezeiten-Hubkraftwerke, welche die kinetische Energie von Wellen- oder Gezeitenbewegungen ebenfalls in kinetische Energie umwandeln. Eine dritte, etwas aus der Mode gekommene Variante ist die Wassermühle, mit der ebenfalls seit dem Mittelalter kinetische Energie in Rotationsenergie umgewandelt wird. Ein Vorteil dieser Wasserkraft ist, dass sie permanent zur Verfügung steht, solange ein Fluss fließt.
Holz
Jeder Eigenheimbesitzer und jeder Holzfäller in Kanada genießen wie wohlige Wärme von Holzverbrennungsöfen. Der nachwachsende Rohstoff Holz steht uns fast unbegrenzt zur Verfügung.
Biogas/Biomasse
Biogas ist eine Nische der Energieerzeugung. Biogas ist neben Sonnen-, Wasser- und Windenergie eine sog. regenerative Energiequelle, die zur Einsparung fossiler Brennstoffe beiträgt. Das brennbare Gas entsteht, indem organische Materialien (Biomasse, also pflanzliche und tierische Abfallprodukte) in einer sauerstofffreien Umgebung durch Bakterien abgebaut werden.
Viele Wissenschaftler, Industrie und Bürger mit gesundem Menschenverstand halten den überstürzten Atomausstieg aus Angst vor einem Szenario wie in Fukushima für einen der größten Fehler der Merkel-Ära.
Natürlich ist es unerfreulich, einen organischen Stoff wie Kohle zu verbrennen, um daraus Energie zu erhalten. Es ist aber aktuell noch eine der sicherstellenden Versorgungsverfahren, neben Atomenergie. Ich hätte auch den Wunsch, es gäbe einfach so Energie aus der Steckdose. Solange es keine anderen Ideen gibt als Windräder statt Wald oder Solarpanel statt Felder, zweifle ich alternative Lösungen an. Ein logischer Schritt wäre, den Ausstieg aus der Atomenergie zu stoppen und massiv in die Forschung nach Kernfusion oder in „saubere“ Reaktoren zu gehen.
Zur Klarstellung, was es bedeutet, ein Atomkraftwerk durch sog. erneuerbare Energien zu ersetzen, folgen ein paar Zahlen. Um ein durchschnittliches Atomkraftwerk zu ersetzen, bräuchte man etwa 4400 Windkraftanlagen, mittlerer Dimension. Eines dieser Windräder benötigt eine Grundfläche von etwa 400 m². Die Fläche von aller dieser Windkraftanlagen zusammen beträgt also etwa 1.760.000 m². Wollen wir das? Fragt uns jemand?
Deutschland muss im Jahre 2035 mit etwa 1000 Terawattstunden (TWh) zur Abdeckung seines Energiebedarfes rechnen, sofern die linksgrüne Trallalla bis dahin unser Heimatland nicht vernichtet hat. Aktuell verbrauchte Deutschland ca. 550 TWh im Jahr 2022. Alle normalen Fachleute sind sich einig, dass die grüneZukunft nicht mit erneuerbarer Energie gestaltet werden kann. 11 Mrd. Menschen auf diesem Planeten brauchen Energie, um ihr Leben zu gestalten. Es gibt Länder, die haben es erkannt und investieren in diese Zukunft.
China baut z. B. bereits Prototypen von Thorium-Reaktoren ohne radioaktiven Abfall. Deutschland sollte hier in die Forschung einsteigen, um den Anschluss nicht zu verlieren.
Zumindest sollten ausgebrannte Brennstäbe nicht auf der Erde gebunkert, sondern z. B. mit Raketen einfach in die Sonne geschossen werden. Gibt es dazu keine Ideen? Damit keiner diese Idee torpedieren kann, sollten die Kraftwerke auch gleich in der Umlaufbahn liegen! Der Rest ist Geld * Beschleunigung.
Der Dual-Fluid-Reaktor ist ein Kernreaktor-Konzept mit dem Ziel, die Vorteile des Flüssigsalzreaktors mit denen metall-gekühlter Reaktoren zu kombinieren. Somit sollen die Nachhaltigkeits-, Sicherheits- und Wirtschaftlichkeits-Ziele der sogenannten IV. Generation erreicht werden. Der Witz ist, dass diese Reaktoren alte Brennstäbe in verflüssigter Form verarbeiten.
Neben dieser Variante des Umgangs mit ausgebrannten Brennstäben gibt es die Hoffnung auf Reaktoren, die genau diese Brennstäbe als Futter für ihren Energieerzeugungs-Prozess verbrauchen. Es handelt sich um sog. Dual-Fluid-Reaktoren. Das wäre die Lösung für unsere Altlasten und eine zukunftsfähige Alternative.
Deutschland hat sich mit seiner einseitigen Ausrichtung auf Sonne, Wind und Erdgas in eine Energienot manövriert. Steigende Energiepreise und sinkende Versorgungssicherheit gefährden Wettbewerbsfähigkeit und Wohlstand. Das Festhalten am deutschen Atomausstieg verschärft diese Gefahren und bremst – zusammen mit anhaltender Kohleverstromung – den internationalen Klimaschutz.
So muss man sogar auf den Weltklimarat IPCC verweisen, der die Kernenergie ausdrücklich als ein Instrument des Klimaschutzes bezeichnet. Ebenso ordnet die Europäische Union die Kernenergie als ein Instrument des Klimaschutzes ein. Kernkraftwerke stoßen während des Betriebes kein CO₂ aus, das als klimaschädlich angesehen wird.
Die Fachschaft ist sich einig darüber, dass herkömmliche Uran- und Plutonium-Reaktoren mit Wasserkühlung nicht mehr dem Stand der Technik entsprechen und aufgrund ihrer Risiken nicht mehr gebaut werden sollten. Alternativen stehen in den Startlöchern, als Kernspaltungs- oder Kernfusions-Reaktoren. Es gibt keine andere Wahl. Erneuerbare Energien sind nicht unendlich erneuerbar. Die grüneLüge muss auch auf den Müll der Geschichte.
Kernenergie hat seit ihrer Entdeckung in den 1940er Jahren sowohl positive als auch negative Auswirkungen auf die Welt gehabt. Während die Kernenergie in der Lage ist, große Mengen an Strom zu erzeugen und viele Länder dabei unterstützt hat, ihre Energiebedürfnisse zu decken, ist sie auch mit Risiken wie radioaktiver Verschmutzung und Kernschmelzen verbunden. Trotz dieser Risiken gibt es jedoch auch die Möglichkeit, saubere Kernenergie zu nutzen, die sicherer und umweltfreundlicher ist als herkömmliche Kernenergie.
Kernfusion
Saubere Kernenergie wird oft als „Kernfusion“ bezeichnet, im Gegensatz zur herkömmlichen Kernspaltung, die in den meisten bestehenden Kernkraftwerken verwendet wird. Bei der Kernfusion werden Atomkerne miteinander verschmolzen, um Energie freizusetzen, anstatt dass sie gespalten werden. Der Prozess der Kernfusion findet normalerweise in der Sonne statt und erzeugt große Mengen an Energie, die für Millionen von Jahren ausreicht.
Die Vorteile der Kernfusion als saubere Energiequelle sind zahlreich. Zum einen produziert sie keine Treibhausgase, die zum Klimawandel beitragen könnten. Im Gegensatz zu fossilen Brennstoffen, die bei ihrer Verbrennung Kohlenstoffdioxid freisetzen, ist die Kernfusion eine saubere, kohlenstofffreie Energiequelle. Zweitens ist die Menge an Brennstoff, die für die Kernfusion benötigt wird, relativ gering im Vergleich zu anderen Energiequellen. Ein kleiner Kernfusions-Reaktor könnte genug Energie liefern, um eine ganze Stadt mit Strom zu versorgen, und das alles mit einer sehr geringen Menge an Brennstoff.
Ein weiterer Vorteil der Kernfusion als saubere Energiequelle ist ihre Sicherheit. Im Gegensatz zur Kernspaltung, bei der eine Kernschmelze oder ein Unfall zu katastrophalen Folgen führen kann, ist die Kernfusion eine sehr sichere Energiequelle. Die Technologie ist so konzipiert, dass bei Störungen automatisch ein Abschalten des Reaktors stattfindet. Ferner ist das verwendete Brennstoffmaterial bei der Kernfusion nicht radioaktiv und kann nicht für die Entwicklung von Atomwaffen verwendet werden.
Trotz der vielen Vorteile der Kernfusion gibt es jedoch auch Herausforderungen bei ihrer Umsetzung. Eines der größten Hindernisse ist die Entwicklung einer Technologie, die in der Lage ist, den Fusionsprozess zu kontrollieren und aufrechtzuerhalten. Forscher auf der ganzen Welt arbeiten jedoch hart daran, diese Herausforderungen zu überwinden, und es gibt bereits einige vielversprechende Fortschritte in der Entwicklung von Kernfusions-Reaktoren.
Insgesamt bietet saubere Kernenergie, insbesondere Kernfusion, eine vielversprechende Alternative zu fossilen Brennstoffen und herkömmlicher Kernenergie. Während die Technologie noch in der Entwicklung ist, haben die vielen Vorteile, die sie bietet, das Potenzial, die Art und Weise zu revolutionieren, wie wir Energie produzieren und verbrauchen. Wenn Forscher in der Lage sind, die Herausforderungen zu überwinden und eine zuverlässige Kernfusionsreaktortechnologie zu entwickeln, könnte dies dazu beitragen, den Bedarf an fossilen Brennstoffen zu reduzieren und die Energiesicherheit zu erhöhen.
Ferner ist es wichtig, dass die Entwicklung von Kernfusionstechnologie transparent und sicherheitsorientiert ist. Forschung und Entwicklung sollten unter strengen regulatorischen Rahmenbedingungen stattfinden, um sicherzustellen, dass die Technologie sicher und umweltfreundlich ist. Ein Ansatz gelingt derzeit in Greifswald am Max-Planck-Institut für Plasmaphysik mit dem Wendelstein-Stellarator Wendelstein 7-X.
Insgesamt ist saubere Kernenergie, primär Kernfusion, eine vielversprechende Energiequelle, die das Potenzial hat, eine wichtige Rolle bei der Bekämpfung des Klimawandels zu spielen. Die Technologie befindet sich jedoch noch in der Entwicklung, und es ist wichtig, dass die Forschung und Entwicklung sicher und transparent durchgeführt werden. Eine umfassende Energiestrategie sollte jedoch mehrere saubere Energiequellen beinhalten, um eine nachhaltige Energiezukunft zu gewährleisten.
Diversifikation
Obwohl Kernfusion als saubere Energiequelle viele Vorteile hat, ist es wichtig, weitere erneuerbare Energien zu entwickeln und zu fördern. Es gibt mehrere Gründe, warum dies wichtig ist:
Diversifizierung der Energiequellen: Eine breite Palette von erneuerbaren Energien, wie Wind-, Solar- und Geothermie-Energie, ermöglicht es einer Gesellschaft, ihre Energiequellen zu diversifizieren. Dadurch wird das Risiko minimiert, dass ein Versagen in einer Energiequelle zu einem Energieengpass führt.
Flexibilität und Skalierbarkeit: Erneuerbare Energien können flexibel und skalierbar sein, was bedeutet, dass sie an die Bedürfnisse der Gesellschaft angepasst werden können. Während Kernfusion eine vielversprechende Energiequelle ist, könnte es schwierig sein, sie in einer Vielzahl von Größenordnungen zu skalieren, um den Energiebedarf einer Vielzahl von Gemeinden und Industrien zu decken.
Erschwinglichkeit: Obwohl die Kosten für die Kernfusionstechnologie rückläufig sind, bleibt sie eine relativ teure Energiequelle. Erneuerbare Energien sind im Allgemeinen kosteneffektiver und können dazu beitragen, die Energiekosten für Verbraucher zu senken.
Technologieentwicklung: Die Entwicklung von erneuerbaren Energien hat in den letzten Jahrzehnten rasche Fortschritte gemacht und ermöglicht die Schaffung neuer Arbeitsplätze und die Stärkung von Fähigkeiten in der Technologieentwicklung.
Fazit
Zusammenfassend ist es wichtig, weitere erneuerbare Energien zu entwickeln und zu fördern, auch wenn die Kernfusion als saubere Energiequelle vielversprechend ist. Eine breite Palette von Energiequellen ermöglicht Gesellschaften, ihre Energiequellen zu diversifizieren und an ihre Bedürfnisse anzupassen. Erneuerbare Energien sind oft kosteneffektiver und können dazu beitragen, die Energiekosten für Verbraucher zu senken, während sie gleichzeitig neue Arbeitsplätze und Fähigkeiten im Bereich der Technologieentwicklung schaffen. Aber nehmen wir uns trotzdem ein Beispiel an der Natur und machen es einfach wie die Sonne!
Viele wissen es nicht, aber es existiert in der Wissenschaft tatsächlich ein Streit über die Entstehung von Öl. Die gängige Theorie, begründet durch Lomonossow, behauptet Folgendes:
Das meiste heute geförderte Erdöl ist aus abgestorbenen Meereskleinstlebewesen entstanden, wobei Algen den mit Abstand größten Anteil an Biomasse gestellt haben. Die Erdölentstehung nimmt ihren Anfang überwiegend in den nährstoffreichen, verhältnismäßig tiefen Meeresbereichen der Schelfmeere. Dort sinken die Algen, die sich im lichtdurchfluteten Wasser nahe der Meeresoberfläche regelmäßig stark vermehren, nach ihrem Tod zusammen mit Tonpartikeln zum Meeresgrund ab.
Wichtig ist hierbei, dass das Wasser nahe dem Meeresboden ruhig ist und sich nur selten mit Wasser aus geringeren Meerestiefen mischt. Dadurch können sich in der betreffenden Meeresbodenregion leicht sauerstoffarme oder -freie Bedingungen einstellen. Diese verhindern die vollständige Zersetzung der Algenbiomasse – ein Faulschlamm entsteht. So bilden sich über einige Jahrmillionen hinweg mächtige Sediment-Folgen mit hohem Anteil an organischem Material.
Dieser Theorie folgend, stellen Erdöl und Erdgas ein endliches Vorkommen und damit eine sich erschöpfende Energiequelle dar.
Die andere Theorie bestreitet organische Verbindungen als Basis der Entstehung von Erdöl und führt dazu das Folgende aus:
Bisher galt die Tatsache, dass man in Erdgas und Erdöl auf eindeutig organische Moleküle und Zellbestandteile gestoßen war (auch in Steinkohle und Anthrazit), als starker Beweis für die Theorie der biogenen Kohle- und Erdölentstehung. Gold bestreitet diese Beweise mit guten Gründen. Nach seiner Sicht stammen die biologischen Spuren von der Biosphäre in der heißen Tiefe und gelangten in den Strom der aufsteigenden Kohlenwasserstofffluid.
Warum findet man Erdöl unter Urgestein? Warum stößt man in sehr tiefen Bohrlöchern, die tiefer als jede Sedimentablagerung hinunterreichen, auf Erdöl, das ebenfalls biologische Reste enthält? Warum findet man Erdöl in Diamanteinschlüssen, die unter sehr hohem Druck entstehen, wie sie nur in extremen Tiefen vorkommen? Warum gibt es viel mehr Erdöl, als sich aufgrund der biologischen Überreste aus früheren Zeiten erwarten und berechnen lässt?
Warum füllen sich Öl- und Gasfelder wieder auf, und manchmal sogar so schnell als man sie leer pumpen kann? Warum findet man hochangereicherte Erzvorkommen in Gruppen beieinander und dazu noch häufig in Gebieten, in denen man auch Erdöl und Erdgas antrifft? Warum erstrecken sich Erdölvorkommen oft über geografische Räume, die viel größer sind als irgendeine Sedimentablagerung in diesem Gebiet?
Woher nehmen all die üppig wuchernden Lebewesen um die Vulkane in der Tiefsee ihre Lebensenergie und den für ihren Körperaufbau benötigten Kohlenstoff? Warum gedeihen die uns bekannten einfachsten und frühesten Lebensformen am besten bei den höchsten Temperaturen, in denen bekannte Lebewesen gerade noch überleben können?
Dieser Theorie folgend, stellen Erdöl und Erdgas Energie in unerschöpflicher Menge zur Verfügung.
Kohle (Braunkohle und Steinkohle)
Die einheimische Kohleverbrennungs- und Energieerzeugungsindustrie noch viel früher aus dem Verkehr zu ziehen, heißt nichts anderes, die betroffenen Menschen auf dem Altar einer Ökoreligion zu opfern, die sich auf mathematische Modellrechnungen stützt und naturbedingte Klimaerwärmung ablehnt, ganz im Widerspruch zu den Fakten und ganz deutlich nicht in globalem Maßstab gedacht. Was möchten denn das linksgrüne Bündnis bei 0,000048 % CO₂-Anteil Deutschlands mit diesen Maßnahmen bewegen? Die verpeilte Klimapolitik missbraucht pseudowissenschaftliche Modelle, gestützt von einer ganz bestimmten Gruppe von Wissenschaftlern der IPCC, unter Nichtbeachtung natürlicher Prozesse auf der Erde und unter Nichtbeachtung natürlicher Prozesse auf der Sonne für ihren Kampf gegen den Fortschritt und die Errungenschaften der Industrialisierung, unter Ausschaltung von Diskussion, unter Stummschaltung von Kritikern, gegen Menschen und gegen die Gesellschaft.
Die Medien hüpfen kreischend ums Feuer, welches sie immer wieder neu anfachen und es gar nicht erwarten können, dieses Land in den Abgrund zu stoßen.
Forderungen werden gestellt, die die Gesellschaft in die Vergangenheit zurückdrängen sollen. Wahrscheinlich empfanden es diese Hippies als fabelhaft, auf dem Mittelalter-Weihnachtsmarkt aus einer Holzschüssel Linsensuppe zu schlürfen. Allein die wahnsinnigen Summen, die diese grandiose Fehlleitung- und Fehlleistung unserer Gesellschaft kosten, wären ein Grund, diesen Menschen sofortigen Einhalt zu gebieten.
Einen weltweiten max. Temperaturanstieg von 1,5 Grad zu vereinbaren mit dem Wissen, dass der menschliche Anteil daran nur 0,0016 % beträgt, ist wie am Eingang des Peters-Doms zu stehen, auszuatmen und darauf zu warten, dass am Hochaltar die Kerzen ausgehen, einfach widersinnig und nicht erklärbar.
Interessant wird das Ganze, wenn man bedenkt, dass der durch die linksgrünen Illusionisten aufgebaute Druck und das Geschrei an die Staaten gerichtet ist, die sich heute schon ein Bein herausreißen, um Klimaziele zu erfüllen. China, Russland, Indien und die USA, um nur die größten Verbraucher zu nennen, werden gar nicht angegriffen! Im Gegenteil werden diesen Staaten Zugeständnisse gemacht, um weiter ihre Industrie aufzubauen oder zu schützen und damit die Unsrige zu zerstören! Ist das der eigentliche Plan?
Allein China baut aktuell an 200 Kohlekraftwerken. Weitere 800 sind in Planung. China plant bis 2035 216 neue Flughäfen zu bauen. Indien wird von der Anzahl seiner Bevölkerung her, China in den kommenden Jahrzehnten weit überholen. Inder und Chinesen wollen konsumieren und ihren Lebensstandard auf europäisches Niveau anheben. Was glauben denn die grünen Spinner, wie diese zusätzlichen Energiebedarfe gedeckt werden sollen? Aktuell leben etwa 8 Mrd. Menschen auf diesem Planeten. Im Jahre 2100 sollen es 10 Mrd. Menschen sein. Ohne Kernenergie oder vergleichbare neue Technologien wie Kernfusion ist dies nicht machbar. Der grüne Ökoterror ist nur heiße Luft, um die eigene Klientel bei der Stange zu halten und Fördergelder abzuzocken.
Bildung und Kultur haben neben dem Umweltschutz den höchsten Stellenwert und sind daher staatliche Aufgabe. Daher werden alle Länder – Kultusministerien abgeschafft und durch ein zentrales Bildungsministerium ersetzt.
Europa ist ein geographisches und kulturelles Gebilde. Die Staaten Europas haben eine gemeinsame Vergangenheit und Zukunft. Die EU jedoch hat seit ihrer Gründung nichts für den Einzelnen getan oder dessen Leben einfacher und sicherer gemacht.
Die aktuelle Klimapolitik beruht auf der Annahme, dass ein Spurengas mit einem Anteil von 0,04 % der alleinige Steuermann des globalen Klimas sei. Wir fordern eine Rückkehr zur ganzheitlichen Naturwissenschaft, die die Hierarchie der energetischen Kräfte anerkennt: Die Sonne ist
Die globale Klimaveränderung ist Fakt. Ein Fakt, an dem der Mensch einen Anteil hat, wenn auch so gering, dass dieser Anteil nicht messbar ist. Auch wenn es keinen einzigen Menschen gäbe, würde es diese globale Klimaveränderung geben. Es gab sie
Vorausschauendes Denken und Planen sind dieser Gesellschaft fremd. Es wird von der Hand in den Mund gelebt und von vergangenen Errungenschaften gezehrt.
Sogar auf den Weltklimarat IPCC bezeichnet die Kernenergie ausdrücklich als ein Instrument des Klimaschutzes. Ebenso ordnet die Europäische Union die Kernenergie als ein Instrument des Klimaschutzes ein.
Jeder europäische Staat wird seine eigene Währung besitzen, um endlich wieder die Herrschaft über die eigenen Interessen ausüben zu können. Europäische Staaten werden sich wieder auf Augenhöhe begegnen, selbstbewusst und frei.
Die EU, gegründet 1992 im sog. Maastrichter Vertrag, ist nicht Europa. Es gab davor die EWG und die EG im Westen und den RGW im Osten. Diese Gebilde waren nie Europa oder sind immer nur Teile davon gewesen. Handel war
Das eigene Ich und die selbstherrliche Verwirklichung individuellen Glücks gegenüber gesamtgesellschaftlicher Orientierung, die Herabsetzung staatlicher und gesellschaftlicher Ziele ist ein Fehler, der sich noch bitter rächen wird, denn der Westdeutsche hat in der Zeit des Bestandes der Bundesrepublik massenweise seine
Noch vor gar nicht so langer Zeit war Deutschland eine Nation von genialen Ingenieuren und Erfindern, von Maschinenbauern und Elektrotechnikern. Wenn irgendein Problem auftauchte, hieß es: Lasst uns einfach was entwickeln, was das Problem löst. Heute redet eine Minderheit von Germanistikstudium-Abbrechern, von Apokalyptikern und wissenschaftlichen Analphabeten diesem Land ein, dass im Verzicht, im Reduzieren und im Sparen die Lösung aller Probleme liegt. Dieses Land hat mehr verdient. Lichtblick statt Blackout!
Deutschland am Scheideweg: Wirtschaft, Infrastruktur und Finanzpolitik im Wandel
Deutschland war einst ein globaler Innovationsführer – eine Nation von Ingenieuren, Erfindern und Unternehmern. Doch heute bestimmen Ideologien und realitätsferne politische Entscheidungen zunehmend den wirtschaftlichen Kurs. Die Debatte über Verzicht, Sparen und Reduzierung hat die einstige Problemlösungskompetenz verdrängt. Statt nach vorne zu blicken und technologische Fortschritte zu nutzen, wird das Land mit wirtschaftlicher Unsicherheit und Bürokratie belastet.
Wirtschaft unter Druck: Von Leistungsfähigkeit zu Abhängigkeit?
Deutschland hat sich aus der Weltspitze der Innovation zurückgezogen. Während einst deutsche Unternehmen führend in Schlüsseltechnologien wie Maschinenbau, Elektrotechnik und Fahrzeugentwicklung waren, sind sie heute von ausländischen Lieferanten und politischen Fehlentscheidungen abhängig. Der Mittelstand, das Fundament der deutschen Wirtschaft, leidet unter steigenden Steuern, kostspieligen Regulierungen und einer Energiepolitik, die sich zunehmend als wirtschaftliche Belastung erweist.
Finanzen und Staatsverschuldung: Wer zahlt die Rechnung?
Die Staatsverschuldung steigt auf Rekordwerte – doch wer profitiert davon? Während der deutsche Steuerzahler zunehmend belastet wird, fließen Mittel in ineffiziente Projekte und internationale Finanzierungen. Die Frage, bei wem der deutsche Staat tatsächlich verschuldet ist und welche Konsequenzen dies für die nationale Handlungsfähigkeit hat, bleibt weitgehend unbeantwortet. Wer kontrolliert die Finanzflüsse, und ist die Regierung tatsächlich noch unabhängig in ihren wirtschaftlichen Entscheidungen?
Steuern: Wer trägt die Last?
Deutschland hat eines der kompliziertesten Steuersysteme weltweit. Während Konzerne und Superreiche legale Schlupflöcher nutzen, um ihre Steuerbelastung zu minimieren, trägt die arbeitende Bevölkerung die Hauptlast der Finanzierung staatlicher Projekte. Steuervermeidung durch multinationale Unternehmen führt zu immer größerer Ungleichheit, während Bürger mit steigenden Abgaben belastet werden. Die dringend notwendige Reform des Steuerrechts bleibt aus – stattdessen verlagert sich die Diskussion auf ideologische Debatten anstatt auf pragmatische Lösungen.
Die staatliche Infrastruktur, einst eine zentrale Säule wirtschaftlichen Erfolgs, wurde in vielen Bereichen privatisiert. Verkehrswege, Energieversorgung und öffentliche Dienste werden zunehmend durch privatwirtschaftliche Interessen bestimmt, ohne Rücksicht auf die langfristige Versorgungssicherheit der Bürger. Die Privatisierung essenzieller Dienstleistungen zeigt ihre Schattenseiten – steigende Kosten, sinkende Qualität und reduzierte staatliche Einflussmöglichkeiten.
Wirtschaftliche Zukunft: Selbstbestimmung oder Fremdsteuerung?
Deutschland hat das Potenzial, wieder ein führender Wirtschaftsstandort zu sein – doch dazu sind grundlegende strukturelle Änderungen erforderlich. Eine Rückkehr zur pragmatischen Innovationsförderung, zur wirtschaftlichen Selbstbestimmung und zu einer verantwortungsbewussten Steuer- und Finanzpolitik könnte das Land stabilisieren. Doch solange politische und wirtschaftliche Entscheidungsprozesse von undurchsichtigen Netzwerken beeinflusst werden, bleibt echter Fortschritt eine Illusion.
IST
Das BIP (Bruttoinlandsprodukt) betrug im Jahre 2020 etwa 3,8 Billionen EUR, umgerechnet also 7,4 Billionen Mark. Die daraus resultierenden, verteilbaren Steuermittel betrugen insgesamt 740 Mrd. EUR, also 1450 Mrd. Mark. Die Staatsverschuldung beträgt im Jahr 2021 2,2 Billionen EUR, also 4,3 Billionen Mark. Ausgaben der öffentlichen Hand betrugen im Jahr 2020 1679 Mrd. EUR, also 3291 Mrd. Mark. Wie kann das sein, wenn die Steuereinnahmen nur halb so hoch waren? Werden wir auch hier so richtig verarscht?
Die Sozialversicherungsausgaben betrugen im Jahr 2020 allein 748 Mrd. EUR, davon wir die Rentenversicherung mit 330 Mrd. EUR gestützt. Das Konstrukt kann nicht funktionieren!
Der interessante Teil ist die Staatsverschuldung. Bei wem ist der deutsche Staat verschuldet? Wer fordert? Wer ist Gläubiger? Deutschland ist zu circa 40 % bei inländischen Gläubigern verschuldet, circa 60 % der deutschen Verschuldung sind Auslandsschulden. Die inländischen Gläubiger sind zu etwa zwei Dritteln inländische Kreditinstitute und zu einem Drittel Nichtbanken (Versicherungen, Unternehmen, Privatpersonen). Ist dieser Staat noch handlungsfähig oder kann er nur unter Auflagen agieren? Wer weiß das schon?
Die deutsche Wirtschaft wird essenziell angereichert durch das deutsche Bildungssystem. Dessen Misere ist mit ausschlaggebend für den Niedergang der deutschen Wirtschaft. Gut abzulesen ist dies in einer Statistik zu den international eingereichten Patenten.
In den 80er-Jahren des vergangenen Jahrhunderts lag der Anteil Deutschlands noch bei über 8 % und war nach Japan und den USA führender Entwickler. Mittlerweile hat sich Deutschland aus den Top 10 katapultiert.
Wirtschaft
Die deutsche Wirtschaft war einmal das Aushängeschild unserer Nation. Leistungsfähig, mit hoher Qualität und hoher Innovationskraft wurden uns Maschinen, Fahrzeuge, Elektronik, Chemie, Energie in aller Welt aus den Händen gerissen. Die Zeiten sind vorbei. Schlamperei, Größenwahn und Überheblichkeit deutscher Politik, raffgierige Bosse und Eigentümer haben diese Stütze unseres Staates marodiert und fast zum Einsturz gebracht. Ich nenne nur ein paar Beispiele wie Mobiltelefontechnik, TV-Technik, Magnetschwebebahn, Solartechnik, Rechentechnik, Produktionsanlagen. Hört auf zu Jammern!
Die Bosse der deutschen Wirtschaft und deren Marionetten im Bundestag haben zugesehen, wie ein Technologieunternehmen nach dem anderen aus Deutschland verschwindet, welches in der Lage wäre, die hiesige Industrie zu stützen, wenn ausländische Lieferanten ausfallen! Dummheit muss bestraft werden, könnte man sagen, wenn es nicht so traurig wäre für uns Deutsche!
Der deutsche Steuerzahler und diese Gesellschaft haben es ermöglicht, dass Konzerne, Startup-Pioniere, Unternehmer und Wissenschaftler in Deutschland den Spielplatz ihrer Innovationen vorfinden können. Diese Menschen haben hier vielleicht studiert oder ihre Anregungen erhalten. Sie konnten hier in Deutschland wachsen und internationale Kontakte knüpfen. Diese Vorfinanzierung durch unsere Gesellschaft lassen wir uns nicht stehlen. Damit stehen sie nun als Millionäre, Milliardäre oder Billionäre in der Schuld dieser Gesellschaft. Allen diesen Innovatoren oder Managern scheint jedoch nicht klar zu sein, als Teil dieser Gesellschaft auch Verantwortung zu tragen, und zwar nicht für China, Moçambique oder Kanada, nein, für unser Land.
Jemand könnte einwenden, dass ein Unternehmer frei ist und mit seinem Geld machen kann, was er will. Nun, dann soll er dieses Land verlassen und sein Glück in Indien oder China machen. Ich beschreibe hier einen Staat, in dem die BürgerVerantwortung füreinander übernehmen und das Soziale in unserer Marktwirtschaft tragen. Jeder, dem diese soziale Verantwortung egal ist, hat alle Fördermittel zurückzuzahlen und kann sich anschließend verpissen! Solche Schmarotzer braucht kein Land, auch China oder Indien nicht. Denn die von mir beschriebenen Probleme mit sozialer Ungerechtigkeit treffen auf solche Länder noch viel mehr zu als auf uns, die ein Abfederungs-System haben. Wenn es diesen Staaten aber auch egal ist, wie deren Bürger leben, ist das nicht unser Problem.
Gewinnmaximierung und vortäuschen, als ob man soziale Verantwortung trüge, als wenn man irgendetwas für Deutschland oder seine Bürger übrig hätte. Dieses Lügenkonstrukt fällt zusehends!
Wie soll eine Gesellschaft und ein Unternehmen überleben, wenn die Maschinen Produkte produzieren, die niemand kaufen kann, weil niemand Geld hat, weil niemand Lohn erhält, weil keine Menschen Arbeit haben und Sozialabgaben entrichten. Marx hat dies bereits in seinem Werk „Das Kapital“ vor über 180 Jahren eindrucksvoll dargestellt. Der Kapitalismus sägt sich in seiner ausgeprägten Form des Imperialismus selbst den Ast ab, auf dem er sitzt. Zumindest in dieser überspitzten Weise hatte Marx völlig recht. Marx aber zu verteufeln, weil seine Erben seine Lehren missbrauchten und verdrehten, macht sein Werk nicht weniger wahr!
Eine andere Sicht auf die alles zerstörende Gier des kapitalistischen Systems, welches ohne Schranken unsere Welt zerstören würde, hatte der ehemalige Manager Daniel Goedevert in seinem Buch „Das Seerosen-Prinzip“.
Steuermilliarden versickern in dunklen Löchern. Sinnlose Ausgaben verschwenden das Geld der Steuerzahler zu Hauf. Wichtige Entscheidungen werden nicht getroffen und Lebensadern werden privatisiert. Damit muss Schluss sein.
Eine wesentliche Aufgabe des Staates ist es, durch die Einnahme von Geldmitteln gesamtgesellschaftliche Investitionen zu tätigen, um die notwendigen Infrastrukturen bereitstellen zu können. Als Infrastruktur zählen hier Verkehrswege und Netze aller Art, Bildungseinrichtungen, Gesundheitseinrichtungen, Sicherheit, Energieversorgung und Verwaltungseinrichtungen.
Leider hat sich der deutsche Staat im Laufe seiner Existenz von vielen dieser Infrastrukturen verabschiedet und diese in private Hände gegeben. Ich nenne nur als Beispiel die Privatisierung der Post, der Bundesbahn, der Lufthansa, Energieversorger und vieler Krankenhäuser. Der deutsche Staat entledigt sich damit seiner Handlungsfelder und veräußert damit mutwillig Eigentum der Steuerzahler, so wie nach 1989 die Treuhand DDR Volkseigentum verschenkte.
Finanzen
Die deutsche Politik in ihrem Traum von Europa und den damit verbundenen Erleichterungen und Vorteilen für die deutsche Wirtschaft hat Deutschland als Wirkungsraum aufgegeben. Die Gründung der EU und danach die Einführung des EURO haben keinem einzelnen Bürger dieses Landes irgendeinen Vorteil gebracht. Der EURO ist ein wachsweicher Haufen Papier, jederzeit entflammbar und nur künstlich am Leben erhalten durch massives Eingreifen der EZB. Es wird Geld gedruckt und an Banken verschenkt. Zinsen, der Motor der Wirtschaft, sind gegen 0 % gefahren, ja sogar mit negativem Vorzeichen versehen. Eine absolute Fehlleistung und ein unrechtmäßiges Vorgehen. Schulden und Sozialleistungen anderer Staaten werden von Deutschland aufgefangen, um diesen Moloch nicht untergehen zu lassen. Der deutsche Steuerzahler büßt diesen Verrat mit Negativzinsen. Diesem Treiben muss ebenfalls Einhalt geboten werden.
Steuern
Das deutsche Steuersystem ist das komplexeste Konstrukt des ganzen Universums. Niemand, wirklich niemand, kennt sich vollständig aus. Schlupflöcher klaffen, Großkonzerne und Reiche füllen sich die Taschen, weil sie die Mittel und Möglichkeiten der Steuervermeidung ausschöpfen. Der normale Bürger ist der Dumme und stützt das System durch Fleiß und Arbeit. Es bedarf einer grundlegenden Strukturänderung, die alle Einkommensarten erfasst und gleichberechtigt behandelt.
Es kann nicht sein, dass ausländische oder inländische Konzerne ihre Einkünfte über Scheinfirmen in anderen Staaten zu einem niedrigeren Steuersatz versteuern können, als der hier geltende. Ein kaputtes (unzureichend reguliertes und nachgehaltenes) System entkoppelt Superreiche von der Gesellschaft und lässt sie zu Puppenspielern mutieren. Diese Puppenspieler können machen, was sie wollen. Was sie tun, löst Tsunamis aus. Das kann nicht gesund sein! Superreiche realisieren keine Gewinne aus Aktienverkäufen, zahlen sich kein Gehalt und leben von aufgenommenen Krediten, wobei ihr Vermögen als Sicherheit dient. Damit sind sie komplett steuerfrei unterwegs und erhalten im Gegenteil sogar Steuererstattungen aufgrund der Kreditschulden. Diesem Treiben muss Einhalt geboten werden.
Reden wir von der Einkommenssteuer und dem Knebel bzw. der Garrotte, die um den Hans eines jedem abhängig Beschäftigen gezogen ist. Die anderen Steuerarten sind im Folgenden genannt.
Einkommenssteuer in Deutschland
Der Tarifverlauf in der Einkommensteuer (dazu zählen insbesondere die Lohnsteuer und die veranlagte Einkommensteuer) wird durch Eckwerte bestimmt:
Die Besteuerung beginnt nach Überschreiten des Grundfreibetrags. Der Grundfreibetrag stellt sicher, dass das Einkommen in Höhe des Existenzminimums nicht durch Steuerabzüge gemindert wird. Der Grundfreibetrag liegt im Jahr 2024 bei 11.604 Euro im Jahr (für gemeinsam veranlagte Ehepartner bei 23.208 Euro).
Übersteigt das Einkommen den Grundfreibetrag, beginnt die Besteuerung mit einem Eingangssteuersatz, der seit 2009 bei 14 % liegt.
Da die Einkommensteuer einen linear progressiven Belastungsverlauf aufweist, steigt mit jedem zusätzlich verdienten Einkommenseuro der Steuersatz an. Der Spitzensteuersatz, der seit 2005 bei 42 % liegt, wird 2024 bei einem Einkommen von 66.761 Euro (133.522 Euro bei gemeinsam veranlagten Ehepartnern) erreicht.
Die Einkommensbestandteile oberhalb von 66.761 Euro werden dann mit einem Steuersatz von 42 % belastet.
Für Einkommensbestandteile oberhalb von 277.826 Euro gilt (eingeführt 2007) eine sog. Reichensteuer mit einem Steuersatz von 45 %.
Wie die Abbildung zeigt, ist der Grundfreibetrag in den Jahren seit 1998 schrittweise angehoben worden, um niedrige Einkommen zu entlasten. Zu berücksichtigen ist dabei allerdings, dass die Erhöhung zu einem großen Teil lediglich die Kaufkraftminderung infolge der Inflation ausgleicht. Die verfassungsrechtlich gebotene Freistellung des Existenzminimums von der Besteuerung wäre ohne Berücksichtigung der allgemeinen Preis- und Einkommensentwicklung nicht mehr gewährleistet. Veränderungen hat es im Beobachtungszeitraum auch beim Eingangs- und Spitzensteuersatz gegeben: Der Spitzensteuersatz wurde seit 1998 um 9 Prozentpunkte auf 42 % reduziert, der Eingangssteuersatz um 10,9 Prozentpunkte auf 14 %.
Spitzensteuer
In Deutschland liegt der Spitzensteuersatz bei 42 % und steht damit deutlich über dem EU-Durchschnitt von 37,77 %. Ab einem zu versteuernden Einkommen von 66.761 € (Stand für das Jahr 2024) muss der Spitzensteuersatz gezahlt werden. Im Jahr 2023 fiel der Spitzensteuersatz ab einem Nettogehalt von 61.972 € an. Zusammenveranlagte Ehegatten zahlen im Jahr 2024 den Spitzensteuersatz ab einem zu versteuernden Einkommen von 133.520 €.
Ende der 80er lag der Spitzensteuersatz bei 56 % und somit bei über der Hälfte des Einkommens.
Natürlich ist es eine Frechheit, die Spitzensteuer bereits bei etwa 62.000 EURO zu veranlagen. Gerade die Leistungsträger der Gesellschaft ohne weitere Kapitaleinkünfte sind damit gemeint und die tragen die wahnsinnige Steuerlast und finanzieren die Altparteien-Mischpoke und Geldverschwendung. Gerade in den Ländern, die wir permanent mit Geldspritzen über Wasser halten, liegen die Steuersätze wesentlich niedriger.
Die als Reichensteuer bezeichnete Erhöhung der Einkommensteuer für hohe Einkommen wurde im Koalitionsvertrag vom 11. November 2005 zwischen CDU, CSU und SPD vereinbart. Sie wurde mit dem Steueränderungsgesetz 2007 eingeführt und gilt seit dem 1. Januar 2007. Die Reichensteuer ist keine eigene Steuer, sondern lediglich eine Erhöhung des Einkommensteuersatzes für höhere Einkommen.
Man beachte den Wortlaut unter Wikipedia und erkennt sofort, auch dieses Medium ist ideologisch unterwandert.
Die Reichensteuer liegt bei saftigen 45 % und betrifft alle „Moneymaker:innen“ ab einem zu versteuernden Einkommen von 277.826 € für das Jahr 2024. Bei zusammenveranlagten Ehegatten wird die Reichensteuer ab einem zu versteuernden Einkommen von 555.652 € gezahlt.
Solidaritätszuschlag
Tatsächlich wurde der Soli 1991 zunächst nur für ein Jahr eingeführt, um einmalige Zusatzausgaben des Staates zu finanzieren. Dazu gehörten Kosten für die deutsche Wiedervereinigung, eine Beteiligung an den Kosten des Zweiten Golfkriegs und die Förderung von Staaten in Mittel- und Osteuropa. Die Höhe des Zuschlags lag damals bei 7,5 Prozent der Einkommensteuer.
Am 14. November 2019 hat der Bundestag das Gesetz zur Rückführung des Solidaritätszuschlags beschlossen. Demnach fällt der Soli seit 2021 für rund 90 Prozent der bisherigen Soli-Zahler bei der Einkommensteuer komplett weg. So zum Beispiel im Jahr 2022 für Alleinstehende mit einem Bruttojahresverdienst von bis zu 75.000 Euro. Allerdings bleibt der Soli bei Kapitalerträgen weiterhin bestehen.
Der progressive Steuertarif beruht auf nominalen Werten. Das führt bei rein inflationsbedingten Einkommenssteigerungen zu einem Problem, denn auch bei einem rein nominalen Gehaltsplus, das lediglich den Preisanstieg ausgleicht, steigt die Steuerbelastung. Im Ergebnis würde dadurch das Realeinkommen sinken. Diese sog. kalte Progressionmacht sich vor allem im Bereich mittlerer Einkommen bemerkbar. Wenn die Einkommensgrenze, bei der der Spitzensteuersatz von 42 % erreicht wird, nicht verändert würde, kommt es zu einem Anstieg der durchschnittlichen Steuerbelastung, weil immer mehr Arbeitnehmer mit ihrem Einkommen von den hohen Grenzsteuersätzen erfasst werden. Der Spitzensteuersatz bezieht sich im Jahr 2023 auf Einkommensbestandteile, die 66.761 Euro bzw. 133.522 Euro im Jahr erreichen.
Steuerarten
Steuerklasse bisher
Abgeltungsteuer
Abzugsteuern bei beschränkt Steuerpflichtigen
Alkoholsteuer
Alkopopsteuer
Biersteuer
Einfuhrumsatzsteuer
Einkommensteuer
Energiesteuer
Erbschaftsteuer/Schenkungsteuer
Feuerschutzsteuer
Getränkesteuer
Gewerbesteuer
Grunderwerbsteuer
Grundsteuer
Hundesteuer
Jagd- und Fischereisteuer
Kaffeesteuer
Kapitalertragsteuer (Unterart der Abgeltungssteuer)
Kinosteuer
Kirchensteuer
Körperschaftsteuer (Unterart der Abgeltungssteuer)
Wir müssen wieder zurück zum Prinzip der sozialen Marktwirtschaft, auch wenn dies in einer globalisierten Welt so schwieriger wird, umzusetzen. Wir müssen die Dinge auf internationaler Ebene neu betrachten und die führenden Eliten der Welt davon überzeugen, dass sie nicht mehr so weiter machen können, auf Gedeih und Verderb. Sie selbst haben es in der Hand, unseren Planeten zu erhalten und damit ihren Reichtum zu sichern, oder ihn zu zerstören und damit auch sich selbst zu eliminieren.
Es wird ein langer Weg über Jahrzehnte sein. Lösungsansätze habe ich im Kapitel „Die Welt, wie sie uns nicht gefällt“ beschrieben.
Bis dahin sind wir nach wie vor ein Nationalstaat mit eigenen Interessen und ab sofort gilt es als Hochverrat, deutsche Technik ins Ausland zu verschenken und dort mit Milliarden Steuergeldern zu finanzieren. Erfindungen und innovative Technologie aus Deutschland sind zu schützen. Jeder Versuch, auszubrechen, wird mit hohen Geldstrafen und Haftstrafen geahndet.
Die Arbeitsleistung von Maschinen wird heruntergebrochen auf die Arbeitsleistung von menschlicher Arbeit. Der Unternehmer muss seiner Maschine zwar keinen Gehalt zahlen, dennoch Sozialabgaben entrichten, als würde ein Mensch die Arbeit verrichten. Nur so kann eine Gesellschaft mit immer weniger produktiver Arbeit bestehen und nur so können künftige Generationen lebenserhaltend existieren, wenn immer weniger Menschen Lohn erhalten, von dem sie Sozialabgaben zahlen und gleichzeitig konsumieren können.
Infrastruktur
Digitalisierung ist Zukunft und damit staatliche Aufgabe. Alle Telekommunikationsnetze sind in staatlichem Besitz und können von Unternehmen gepachtet oder gemietet werden. Dies gilt außerdem für alle anderen Netze, wie Strom-, Transport- oder Rohstoffnetze. Der Staat ist kein Unternehmer. Er sichert lediglich die Infrastruktur, innerhalb derer die Gesellschaft entwicklungsfähig ist.
Die Bundesbahn wird nur noch für das Schienennetz zuständig sein und mit 1 % BIP gefördert. Das Schienennetz wird ausgebaut und erneuert. Gewerbliche Transporte jeglicher Art, welche die deutschen Grenzen lediglich im Transit passieren, sind auf der Schiene zu tätigen. Kurzstreckenflüge innerhalb Deutschlands werden untersagt. Es wird ein Netz von Magnetschwebebahnen geschaffen. Zur Anschubfinanzierung dieser Maßnahmen wird einmalig ein BIP von 1 % zusätzlich bereitgestellt.
Die private Haftpflicht wird eine gesetzliche Pflichtversicherung, analog Kfz-Haftpflicht. Damit wird eine Unlogik beendet.
Finanzen
Die Deutsche Bundesbank bleibt erhalten und wird DZB (Deutsche Zentralbank). Die Mark wird als Zahlungsmittel und Währung wieder eingeführt. Die Mark gibt es als Bargeld und digitale Währung. Deutsche Banken bekommen unter Aufsicht der BAFIN wieder die Möglichkeit, ihren ursprünglichen Auftrag wahrzunehmen (private und geschäftliche Kredite mit Zinsen und Vermögensverwaltung mit Gewinnen). Die EZB wird im Rahmen der Umstrukturierung der EU aufgelöst und alle Handlanger werden wegen Insolvenzverschleppung und zahlreicher Verstöße gegen geltendes Recht verhaftet.
Steuern und Abgaben
Alle Steuern sind in der neuen Verfassung beschrieben.
Wie unterscheiden sich Steuern, Abgaben und Gebühren?
Merkmal
Steuern (Flat-Tax / Konsum)
Abgaben / Gebühren (Sozialabgabe / Puffer)
Gegenleistung
Keine direkte Gegenleistung für den Einzelnen.
Konkrete Gegenleistung oder fester Zweck (Rente/ZGV).
Zweckbindung
Fließt in den allgemeinen Haushalt.
Strikt zweckgebunden. Darf nicht zweckentfremdet werden.
Haftung
Politische Verantwortung für das Budget.
Persönliche Haftung (Art. 17) bei Zweckentfremdung.
Höhe
Durch den 40 %-Deckel begrenzt.
Durch reale Kosten (Kostendeckungsprinzip) begrenzt.
Steuerarten und Abgaben NEU (Zusammenfassung)
Steuern, Abgaben und Gebühren für natürliche Personen
Name der Belastung
Satz
Typ
Bemessungsgrundlage / Besonderheiten
Flat-Tax
25,00 %
Steuer
Auf alle Einkünfte (Lohn, Kapital, Miete, Krypto) oberhalb des Existenzminimums.
Konsumsteuer
15,00 %
Steuer
In jedem Brutto-Endpreis enthalten. Belastet das verfügbare Netto (entspricht 11,25 % vom Brutto).
Anti-Umgehungs-Klausel
25,00 %
Steuer
Kredite gegen Pfand (Aktien/Immobilien) zur privaten Lebensführung gelten als steuerpflichtige Realisierung.
Souveränitäts-Puffer
max. 3,75 %
Gebühr
Deckung realer kommunaler Kosten (Müll, Wasser etc.). Kostendeckungsprinzip, kein Gewinn erlaubt.
GESAMTLAST
max. 40,00 %
Deckel
Verfassungsmäßige Obergrenze der Belastung des Brutto-Einkommens.
Steuern, Abgaben und Gebühren für juristische Personen
Name der Belastung
Satz
Typ
Bemessungsgrundlage / Besonderheiten
Unternehmens-Flat-Tax
25,00 %
Steuer
Auf Gewinn plus die durch KI/Robotik erzielte Maschinen-Wertschöpfung.
Sozialabgabe (Solidar)
11,25 %
Abgabe
Zweckgebunden für ZGV (Gesundheit) und Rente. Ersetzt alle Arbeitgeber-Sozialbeiträge.
Souveränitäts-Puffer
max. 3,75 %
Gebühr
Kommunale Gewerbegebühren und Infrastrukturnutzung (z. B. Standplatz, lokale Logistik).
Import-Ausgleichssteuer
40,00 %
Steuer/Abgabe
An der Grenze: 15 % Konsum + 11,25 % Sozial + 13,75 % Maschinen-Äquivalent.
Konsumsteuer (B2B)
0,00 %
Steuer
Der geschäftliche Verkehr zwischen Unternehmen ist komplett steuer- und bürokratiefrei.
Konsumsteuer (B2C)
(15,00 %)
Steuer
Wird vom Unternehmen am Point of Sale eingehoben und an den Staat abgeführt.
GESAMTLAST
max. 40,00 %
Deckel
Verfassungsmäßige Obergrenze der Belastung der unternehmerischen Wertschöpfung.
Umgang des Staates mit Steuermitteln, Abgaben und Gebühren
Die Verteilung von Steuergeldern muss „DEM DEUTSCHEN VOLKE“ und damit natürlich auch der deutschen Industrie zugutekommen und nicht Heerscharen parasitärer Sozialeinwanderer oder ausländischen Milliardären und deren Spielzeugen. In Berlin fehlt Geld für Schulen, weil eine Haushaltssperre verhängt wurde, gleichzeitig muss Berlin 1 Mrd. EUR für Flüchtlinge ausgeben. Diese Diskrepanz ist vollkommen undemokratisch und muss aufgelöst werden. Es kann nicht sein, dass eine Autofabrik eines ausländischen Eigentümers mit 1,5 Mrd. EUR aus Steuermitteln finanziert wird, aber keiner der dort arbeitenden Menschen sich eines der Fahrzeuge leisten kann und das nur, um automobile Träume der 50er-Jahre wahr werden zu lassen.
Grundsätzlich hat jedes ausländische Unternehmen seine Einkünfte in dem Land, mit dem dafür geltenden inländischen Steuersatz zu versteuern, in welchem eine Ware oder Dienstleistung verkauft wird.
Europa ist ein geographisches und kulturelles Gebilde. Die Staaten Europas haben eine gemeinsame Vergangenheit und Zukunft. Die EU jedoch hat seit ihrer Gründung nichts für den Einzelnen getan oder dessen Leben einfacher und sicherer gemacht.
Die Führung eines Staates und einer Gesellschaft muss auf Zahlen, Daten und Fakten basieren und nicht auf Wunschdenken, Ideologie oder politisch-religiösem Eifer.
Vorausschauendes Denken und Planen sind dieser Gesellschaft fremd. Es wird von der Hand in den Mund gelebt und von vergangenen Errungenschaften gezehrt.
Sogar auf den Weltklimarat IPCC bezeichnet die Kernenergie ausdrücklich als ein Instrument des Klimaschutzes. Ebenso ordnet die Europäische Union die Kernenergie als ein Instrument des Klimaschutzes ein.
Jeder europäische Staat wird seine eigene Währung besitzen, um endlich wieder die Herrschaft über die eigenen Interessen ausüben zu können. Europäische Staaten werden sich wieder auf Augenhöhe begegnen, selbstbewusst und frei.
Die EU, gegründet 1992 im sog. Maastrichter Vertrag, ist nicht Europa. Es gab davor die EWG und die EG im Westen und den RGW im Osten. Diese Gebilde waren nie Europa oder sind immer nur Teile davon gewesen. Handel war
Das eigene Ich und die selbstherrliche Verwirklichung individuellen Glücks gegenüber gesamtgesellschaftlicher Orientierung, die Herabsetzung staatlicher und gesellschaftlicher Ziele ist ein Fehler, der sich noch bitter rächen wird, denn der Westdeutsche hat in der Zeit des Bestandes der Bundesrepublik massenweise seine
Politik und ihre Handlanger haben es verstanden, den Bürger an der Nase herumzuführen. Er glaubt, Deutschland sei ein reiches Land. Dass dies nur für die oberen 10 Prozent gilt, wird ihm von der Politik oder den Staatsmedien verschwiegen!
Es gab eine Zeit, in der Personen wie Brandt, Wehner oder Schmidt als Wortführer und Vordenker dieses Haufens Opportunismus noch den Schein der Volksnähe erhalten konnten. Diese Zeiten sind mit Schröder endgültig ins Klo des Reichstagsgebäudes gespült worden.