Die Geschichte des Stroms ist eine faszinierende Reise durch die Jahrtausende. Von den ersten Beobachtungen elektrischer Phänomene im 6. Jahrhundert v. Chr. durch Thales von Milet bis zur modernen Nutzung von Elektrizität, die historische Entwicklung des Stroms spiegelt den Fortschritt der menschlichen Zivilisation wider.
Schon früh erkannten Gelehrte und Forscher die natürlichen Eigenschaften der Elektrizität, doch die Nutzbarmachung dieses Phänomens begann erst viel später. Der Wissenschaftler Otto von Guericke entwickelte im Jahr 1672 den ersten Generator zur Erzeugung elektrischer Ladungen. Nur ein Jahrhundert später bewies Benjamin Franklin mit seinem berühmten Drachenexperiment im Jahr 1752, dass Blitze elektrische Entladungen sind.
Die Entdeckung von Alessandro Volta im Jahr 1772, die zur Entwicklung der ersten Batterie führte, markierte einen weiteren Meilenstein. Dies ermöglichte es, elektrische Energie zu speichern und kontinuierlich zu nutzen. Der Fortschritt setzte sich im 19. Jahrhundert fort, als Forscher wie André-Marie Ampère 1820 den Zusammenhang zwischen Elektrizität und Magnetismus erforschten und Werner von Siemens 1866 eine dynamoelektrische Maschine patentierte, die zur Entwicklung des Elektromotors beitrug.
Die Einführung der elektrischen Straßenbeleuchtung und die ersten Glühlampen, wie sie von Joseph Wilson Swan 1878 und Thomas Edison 1879 entwickelt wurden, läuteten ein neues Zeitalter der Elektrifizierung ein. Die Erfindung des Transformators im Jahr 1881 ermöglichte den effizienten Transport von Strom über lange Distanzen, was im Stromkrieg zwischen Thomas Edison und George Westinghouse in den 1880er Jahren eine entscheidende Rolle spielte.
Heute ist die Entwicklung der Elektrizität aus unserem täglichen Leben nicht mehr wegzudenken. Die Elektrifizierung Deutschlands, die in den 1880er Jahren begann, brachte erhebliche Fortschritte in der Versorgung von Haushalten und Industrie.
Antike Entdeckungen der Elektrizität
Die Entdeckung der Elektrizität reicht bis in die Antike zurück. Um 2750 v. Chr. war der elektrische Schock von Fischen wie dem Zitterrochen im alten Ägypten bereits bekannt. Doch erst mit Thales von Milet erlebte die antike Elektrizität eine entscheidende wissenschaftliche Betrachtung.
Thales von Milet und der Bernstein
Thales von Milet, ein berühmter griechischer Philosoph, beschrieb um 600 v. Chr. erstmals die elektrostatische Aufladung von Bernstein. Durch das Reiben des Bernsteins an trockenem Tierfell entdeckte er, dass dieser leichte Objekte wie Stroh oder Federn anziehen konnte. Diese Beobachtung markierte einen Meilenstein in der Entdeckung der Elektrizität und legte den Grundstein für das spätere Verständnis dieses Phänomens. Die Erkenntnisse von Thales über den Bernstein trugen zur frühen Erforschung der elektrischen Eigenschaften bei und führten zur späteren Benennung der elektrischen Teilchen als Elektronen im 19. Jahrhundert.
Die ersten Experimente im 17. Jahrhundert
Im 17. Jahrhundert markierten bahnbrechende Entdeckungen und Experimente den Beginn des Studiums der Elektrizität. Eine zentrale Figur dieser Epoche war Otto von Guericke, bekannt für seine bemerkenswerten Innovationen und Untersuchungen im Bereich der Elektrizität.
Otto von Guerickes Elektrisiermaschine
1672 entwickelte Otto von Guericke die erste Elektrisiermaschine. Diese innovative Vorrichtung diente zur Erzeugung elektrischer Ladungen durch das Drehen einer Schwefelkugel. Die Elektrisiermaschine von Guericke erlaubte die Beobachtung von Phänomenen wie Elektrolumineszenz und Influenz, welche entscheidend zum Verständnis elektrischer Ladungen beitrugen.
Guerickes elektrische Experimente legten den Grundstein für spätere Entwicklungen und die Konstruktion der ersten Generatoren. Seine Arbeit ermöglichte es Wissenschaftlern, grundlegende Eigenschaften der Elektrizität zu erkunden und inspirierte weitere Forschungen.
Der Nachweis der elektrischen Ladung
Bis ins 18. Jahrhundert hinein setzte sich die Wissenschaft intensiv mit der Frage auseinandersetzen, wie elektrische Phänomene zu erklären seien. Ein bedeutender Meilenstein in dieser Entwicklung war die Entdeckung durch den französischen Wissenschaftler Charles du Fay im Jahr 1733. Seine Forschungen zur Reibungselektrizität ebneten den Weg für bahnbrechende Erkenntnisse in der Elektrizitätslehre.
Charles du Fay und die dualistische Theorie
Charles du Fay führte Experimente durch, bei denen er bemerkte, dass es zwei Arten von elektrischen Ladungen gab: positiv und negativ. Durch diese Beobachtung formulierte er die dualistische Theorie, die darauf basierte, dass elektrische Erscheinungen von zwei unterschiedlichen Fluida verursacht werden. Diese Theorie war entscheidend für die spätere Entwicklung des Verständnisses von elektrischen Ladungen.
Im Laufe des 19. und 20. Jahrhunderts wurden diese Ideen weiterentwickelt und präzisiert. So formulierte Michael Faraday 1832 die faradayschen Gesetze, die den Zusammenhang zwischen geflossener elektrischer Ladung und Stoffumsatz bei der Elektrolyse herstellen. Joseph John Thomson gelang 1897 der Nachweis, dass Kathodenstrahlen aus Elektronen bestehen, indem er das Verhältnis von Ladung zu Masse dieser Elektronen bestimmte. Besonders bemerkenswert war auch der Millikan-Versuch von 1910, der den Wert der Elementarladung festlegte.
Elektrische Ladungen werden im Internationalen Einheitensystem (SI) in Coulomb (C) angegeben, wobei die Elementarladung etwa 1,602 x 10^-19 Coulomb beträgt. Die Coulombkraft zwischen zwei geladenen Objekten ist proportional zum Produkt der beiden Ladungsmengen und umgekehrt proportional zum Quadrat des Abstands zwischen den Mittelpunkten der Objekte. Dieses Prinzip, das als Coulombsches Gesetz bekannt ist und 1785 von Charles Augustin de Coulomb veröffentlicht wurde, beschreibt den Betrag der Anziehungskraft oder Abstoßungskraft dieser Ladungen.
Die Arbeiten von Charles du Fay sind ein hervorragendes Beispiel dafür, wie frühe Entdeckungen den Grundstein für modernere wissenschaftliche Entwicklungen legten. Seine dualistische Theorie ist noch heute ein zentrales Konzept in der Elektrodynamik und hilft beim Verständnis, wie elektrische Ladungen in verschiedenen Materialien und Systemen interagieren.
- Elektrische Ladungen gibt es in zwei Arten: positiv und negativ.
- Das Kraftgesetz für elektrische Ladungen besagt, dass sich gleichartige Ladungen abstoßen und ungleichartige anziehen.
- Ein Elektroskop zeigt die Größe der Ladung durch den Ausschlag eines Zeigers an.
Die Leidener Flasche als erster Kondensator
Die Erfindung der Leidener Flasche markierte einen wichtigen Meilenstein in der Geschichte der Elektrotechnik. Unabhängig voneinander entdeckten Ewald Georg von Kleist im Jahr 1745 und Pieter van Muschenbroek 1746 das Prinzip, das hinter der Leidener Flasche steckt. Dabei handelt es sich um den ersten elektrischen Kondensator, der die Speicherung von elektrischer Energie ermöglichte.
Von Kleist und van Muschenbroek
Ewald Georg von Kleist und Pieter van Muschenbroek entwickelten nahezu gleichzeitig die erste Leidener Flasche. Das Grundprinzip dieses Kondensators besteht aus einem Glasgefäß, das zur Hälfte mit Wasser gefüllt ist. Die Glaswände dienen als Isolator zwischen den beiden Metallschichten, die als Elektroden fungieren. Diese Erfindung revolutionierte das Verständnis der Elektrizität und ebnete den Weg für die Entwicklung moderner Kondensatoren. Die typische Kapazität von Leidener Flaschen liegt zwischen 10 nF und 100 nF, und sie können hohe Spannungsfestigkeiten erreichen, die bis in den Hochspannungsbereich gehen.
William Watson und John Bevis verbesserten 1748 die ursprüngliche Bauform, indem sie die Verwendung von Flüssigkeiten durch Zinnfolie ersetzten. Diese Veränderung erhöhte die Effizienz und Sicherheit der Leidener Flasche. Der Danziger Physiker Daniel Gralath der Ältere verband mehrere Leidener Flaschen zu einer Batterie, um die elektrische Kapazität durch Parallelschaltung zu erhöhen. Allerdings blieben Risiken bestehen: Johann Gabriel Doppelmayr verlor 1750 sein Leben durch einen elektrischen Schlag beim Umgang mit einer Leidener Flasche.
Die Konfiguration einer Leidener Flasche ähnelt der eines Zylinderkondensators, bei dem zwei elektrisch leitende Zylindermäntel als Platten fungieren. Aufgrund der geringen äquivalenten Serienwiderstände (ESR) können Kurzschlüsse sehr hohe Stromimpulse erzeugen. Zudem kann die dielektrische Absorption dazu führen, dass eine Leidener Flasche auch nach dem Entladen wieder Ladung aufweist.
Wichtige Fortschritte im 18. Jahrhundert
Im 18. Jahrhundert erlebte die Wissenschaft bedeutende Fortschritte im Bereich der Elektrizität. Einer der herausragendsten Forscher dieser Zeit war Benjamin Franklin. Sein Beitrag zur Elektrizität umfasste mehrere bahnbrechende Entdeckungen und Erfindungen, die bis heute von großer Bedeutung sind.
Ben Franklin und das Drachenexperiment
Benjamin Franklin führte 1752 sein berühmtes Drachenexperiment durch, um die elektrische Natur von Blitzen zu beweisen. Indem er einen Drachen in ein Gewitter steigen ließ und einen Schlüssel an der Schnur befestigte, konnte Franklin die elektrische Ladung der Blitze nachweisen. Dieses Experiment war nicht nur ein spektakulärer wissenschaftlicher Durchbruch, sondern führte auch zur Erfindung des Blitzableiters, der Gebäude und andere Strukturen vor Blitzeinschlägen schützt. Franklins Einführung des Begriffs „elektrische Ladung“ und seine Experimente legten den Grundstein für das moderne Verständnis und die Nutzung von Elektrizität.
Die Erfindung der Batterie
Die Entstehung der modernen Batterie ist eine der bedeutendsten Errungenschaften in der Geschichte der Elektrizität. Im späten 18. Jahrhundert machte der italienische Arzt Luigi Galvani eine bemerkenswerte Entdeckung. Beim Experimentieren mit Froschbeinen stellte er fest, dass diese zucken, wenn sie mit zwei verschiedenen Metallen in Kontakt kommen, was er als tierische Elektrizität bezeichnete.
Luigi Galvani und Alessandro Volta
Inspiriert von Luigi Galvanis Arbeiten, vertiefte sich Alessandro Volta, geboren am 18. Februar 1745, in die Untersuchungen. Er entwickelte 1800 die erste funktionierende Batterie, die Volta’sche Säule. Diese bahnbrechende Erfindung erzeugte elektrischen Strom durch eine chemische Reaktion zwischen Kupfer- und Zinkplatten, die von elektrolytimprägnierter Pappe oder Leder getrennt waren. Jede Zelle der Volta’sche Säule erzeugte eine geringe Energiemenge, daher setzte Volta viele Zellen übereinander, um die Leistung zu erhöhen.
Die Volta’sche Säule führte zur Erfindung der Elektrolyse und ermöglichte die Darstellung vieler Grundmetalle. Ihr praktischer Nutzen wurde bald erkennbar, als um 1830 erste technologische Anwendungen wie Telegrafensysteme entstanden. Obwohl Alessandro Volta im März 1827 verstarb, bevor seine Erfindung weitverbreitet genutzt wurde, hinterließ er ein bleibendes Erbe. Zu seinen Ehren wurde die Einheit der elektrischen Spannung, das Volt, Ende des 19. Jahrhunderts nach ihm benannt.
Die Volta’sche Säule war ein wesentlicher Schritt in der Weiterentwicklung der Batterietechnologie. Mit der 1887 patentierten Trockenbatterie von Carl Gassner und späteren Innovationen wie der modernen Lithium-Ionen-Batterie setzte sich die Entwicklung fort. Die heutige Bedeutung von Sekundärbatterien, insbesondere Blei-Säure- und Lithium-Ionen-Akkumulatoren, zeigt den enormen Fortschritt seit den frühen Entdeckungen von Luigi Galvani und Alessandro Volta.
Von der Theorie zur Praxis: Generatoren und Elektromagnetismus
Die Entwicklung des Elektromagnetismus und der elektrischen Leitfähigkeit wäre ohne die bedeutenden Beiträge von André-Marie Ampère und Georg Simon Ohm nicht möglich gewesen. Beide Wissenschaftler legten durch ihre Entdeckungen und Theorien im frühen 19. Jahrhundert den Grundstein für zahlreiche moderne Technologien.
André-Marie Ampère und Georg Simon Ohm
André-Marie Ampère gilt als einer der Pioniere der Elektrodynamik. Seine Arbeiten führten zur Definition des später nach ihm benannten Gesetzes über die Wechselwirkung stromdurchflossener Leiter. Ampères Erkenntnisse über den Magnetismus halfen, die Kräfte zwischen elektrischen Strömen zu verstehen.
Auf der anderen Seite revolutionierte Georg Simon Ohm das Wissen über die elektrische Leitfähigkeit. Sein 1827 formuliertes Ohmsches Gesetz beschreibt den Zusammenhang zwischen Strom, Spannung und Widerstand in elektrischen Schaltungen und ist heute ein fundamentales Prinzip der Elektrotechnik. Ohms präzise Experimente und der mathematische Ansatz ermöglichten es, die elektrische Leitfähigkeit quantifizierbar zu machen.
Die Arbeiten dieser beiden Forscher ermöglichten tiefere Einblicke in die Natur elektrischer Ströme und ihre Wechselwirkungen, was unmittelbar zur praktischen Anwendung führte. Beispielsweise basieren moderne Generatoren und Kraftwerke auf den Prinzipien des Elektromagnetismus, welche durch die Forschung von Ampère und Ohm erst möglich wurden.
Seit wann gibt es Strom?
Die Geschichte des Stroms begann schon in der Antike, als Thales von Milet im 6. Jahrhundert v. Chr. feststellte, dass geriebener Bernstein andere Objekte anzieht. Dies waren frühe Experimente mit Elektrizität, doch ein tieferes Verständnis und praktische Nutzbarmachung von Elektrizität ließen noch lange auf sich warten.
Etwa 1000 Jahre vergingen, bis Wissenschaftler wie Otto von Guericke im 17. Jahrhundert bemerkenswerte Fortschritte machten, darunter die erste Elektrisiermaschine von 1672. Alessandro Volta revolutionierte Ende des 18. Jahrhunderts die Nutzbarmachung von Elektrizität mit der Entwicklung der ersten Batterie, die Strom durch chemische Reaktionen erzeugte.
Im 19. Jahrhundert führten Entdeckungen von Wissenschaftlern wie André-Marie Ampère (zusammen mit der Benennung der Einheit „Ampere“ für die Stromstärke) und Werner von Siemens (mit der Erfindung der Dynamomaschine) zu einem besseren Verständnis und zur breiteren Anwendung von Elektrizität.
Ein entscheidender Moment war 1891 mit der erfolgreichen Drehstromübertragung zwischen Lauffen und Frankfurt, die den endgültigen Durchbruch für Wechselstrom markierte. Diese Nutzbarmachung von Elektrizität führte zur Erfindung erster elektrischer Straßenbeleuchtungen und Haushaltsgeräte, was das tägliche Leben drastisch veränderte und die Modernisierung vorantrieb.
Die Elektrifizierung privater Haushalte nahm in den 1920er Jahren weltweit deutlich zu, was wiederum gesellschaftliche und wirtschaftliche Fortschritte begünstigte. Trotz des beeindruckenden Fortschritts sind nach Angaben der Internationalen Energieagentur (IEA) jedoch immer noch etwa 1,4 Milliarden Menschen weltweit – insbesondere in ländlichen Gebieten Chinas und Afrikas – nicht ans Stromnetz angeschlossen.
Die ersten Glühlampen und die Elektrifizierung der Haushalte
Die Erfindung der ersten praktikablen Glühlampe im Jahr 1880 durch Thomas Alva Edison markierte den Beginn eines neuen Zeitalters in der Geschichte der Elektrizität. Die Jahre nach dieser Erfindung sahen eine rapide Expansion der Elektrifizierung der Haushalte weltweit. Es war nicht nur ein technologischer Durchbruch, sondern auch ein gesellschaftliches Phänomen, das das tägliche Leben revolutionierte.
Thomas Alva Edison
Thomas Alva Edison spielte eine zentrale Rolle bei der Entwicklung der ersten kostengünstigen Glühlampen. Seine Glühbirne mit Kohlefaden erhielt am 27. Januar 1880 das Patent, was der Beginn der massenhaften Nutzung in Privathaushalten und Unternehmen war. Der technologische Fortschritt ging Hand in Hand mit der Schaffung der ersten elektrischen Kraftwerke, die ebenfalls unter Edisons Führung standen. Diese Kraftwerke legten die Grundlage für die moderne elektrische Infrastruktur und ermöglichten die umfassende Elektrifizierung der Haushalte.
Edison baute seine erste große kommerzielle elektrische Versorgungsanlage 1882 in New York City auf. Diese Innovation verbreitete sich schnell und führte dazu, dass immer mehr Haushalte mit elektrischem Licht versorgt wurden. Dies steigerte nicht nur die Lebensqualität, sondern förderte auch den wirtschaftlichen Fortschritt durch eine effizientere Beleuchtung und die Möglichkeit, elektrische Geräte zu nutzen.
Die Glühlampen wurden in den 1880er Jahren zu einem der ersten elektrischen Produkte, die in Haushalten weit verbreitet waren. Durch die Elektrifizierung konnten abendliche Aktivitäten sicherer und produktiver gestaltet werden. Diese Entwicklung legte den Grundstein für weitere Innovationen und eine tiefergehende Vernetzung der Haushalte mit dem Stromnetz.
Von Gleichstrom zu Wechselstrom
Der sogenannte Stromkrieg zwischen Thomas Edison und George Westinghouse war ein entscheidender Moment in der Geschichte der Elektrifizierung. In den 1880er Jahren propagierte Edison den Gleichstrom (DC) für die Energieversorgung und installierte 1882 das erste Kraftwerk im Wall-Street-Viertel von New York.
Allerdings hatte der Gleichstrom erhebliche Einschränkungen bei der Übertragung über längere Distanzen, was mehrere Kraftwerke innerhalb kurzer Reichweite nötig machte. Im Gegensatz dazu präsentierte Nikola Tesla 1888 ein System für Wechselstrom (AC), das eine effizientere Stromübertragung über weite Strecken ermöglichte. George Westinghouse erkannte das Potenzial und erwarb das Patent für die AC-Motoren für $200,000.
Der Stromkrieg: Edison vs. Westinghouse
Edison setzte weiterhin auf Gleichstrom mit Spannungen um die 110 Volt. Die Wechselstrom-Systeme, propagiert von Tesla und finanziert von Westinghouse, operierten mit Spannungen von +1000 bis -1000 Volt und zeigten ihre Effizienz in der Übertragung über weite Distanzen. 1893 erhielt die Westinghouse Electric Company den Auftrag, die World’s Columbian Exposition in Chicago mit AC zu beleuchten. Dies war ein Triumph für den Wechselstrom und festigte seinen Platz als bevorzugte Methode der Stromübertragung.
Der Streit erreichte 1890 einen grausamen Höhepunkt, als die erste Hinrichtung mittels Elektrizität unter Verwendung von Wechselstrom durchgeführt wurde, was die Öffentlichkeit schockierte und die Gefahren von AC betonte. Dennoch setzte sich der Wechselstrom auf lange Sicht durch, da er für die Energieübertragung und -verteilung überlegen war.
Der Erfolg von Westinghouse und der kommerziellen Nutzung der Wechselstrom-Technologie gipfelte in der Inbetriebnahme des Wasserkraftwerks am Niagara-Fall, das deutlich machte, dass AC die weit überlegene Technologie für die Elektrizitätsverteilung war. Über 130 Jahre später kehrt die Diskussion um Gleichstrom zurück, insbesondere im Bereich der Hochspannungs-Gleichstrom-Übertragung (HVDC), um erneuerbare Energien effizient über große Entfernungen zu transportieren.
Die Elektrifizierung in Deutschland
Die Elektrifizierung in Deutschland nahm Ende des 19. Jahrhunderts richtig Fahrt auf. Bereits 1882 wurden in Berlin auf dem Potsdamer Platz und der angrenzenden Leipziger Straße 36 elektrische Bogenlampen installiert. In den darauffolgenden Jahren breitete sich die elektrotechnische Innovation rasant in den Großstädten aus. Die städtische Elektrizitätsversorgung begann zunächst mit der Beleuchtung und dehnte sich später auf andere Bereiche des Alltags aus.
Im Jahr 1884 wurde die flächendeckende Elektrizitätsversorgung in Deutschland mit der Gründung der Aktiengesellschaft „städtische Elektrizitätswerke“ in Berlin gestartet. Bis Ende des 19. Jahrhunderts war die Allgemeine Elektricitäts-Gesellschaft (AEG) zu einem international operierenden Konzern mit rund 3000 Arbeitern und Angestellten gewachsen. Elektrizität hielt nicht nur in privaten Haushalten Einzug, sondern revolutionierte auch den Transportsektor. Schon 1892 verkehrten in Deutschland und Österreich-Ungarn 15 elektrische Bahnen und rund 260 Motorwagen.
Die 1920er Jahre markierten einen Höhepunkt in der Haushaltselektrifizierung. Während 1914 nur etwa 5% der Berliner Wohnungen über elektrischen Strom verfügten, stieg dieser Anteil bis 1925 auf 25% und erreichte Ende der 1920er Jahre bereits 50%. Diese historische Elektrizitätsnutzung war ein entscheidender Schritt für den technologischen Fortschritt und das moderne Leben, wie wir es heute kennen.