klogsy
"Welche Rollen werden Wissenschaft und Technik
            in der deutschen Gesellschaft der Zukunft spielen?"
Deutschland im Jahr 2030
W
ie wird unser Leben in 20 Jahren aussehen? Vielleicht fahren unsere Autos dann mit Wasserstoff. Oder es gibt intelligente Tabletten, die kranke Organe im Körper selbstständig finden und heilen können. Möglicherweise helfen uns auch Roboter überall im Alltag. All dies ist keine Science-Fiction mehr - es ist gar denkbar, dass sich diese Vorstellungen in den nächsten zwanzig Jahren realisieren. In den Forschungslaboren hat die Arbeit an solchen Anwendungen bereits begonnen.
   In zwei Jahrzehnten kann sich sehr viel verändern: 1989 war die Mauer gerade gefallen, im Osten Deutschlands fuhr fast jeder einen Trabi, es wurde in Deutschland noch keine einzige SMS verschickt und in den fortschrittlicheren Büros standen summende graue Kisten, in die man eine Art schwarze Briefumschläge schob: die Personal Computer. Das Internet zum Nachschlagen gab es damals noch nicht.
   Wer weiß also, was in den nächsten zwanzig Jahren passieren wird? Sichere Aussagen dazu kann niemand treffen. Trotzdem ist es bereits heute notwendig, die Weichen für die Gesellschaft von morgen zu stellen. Dafür ist ein umfassendes Verständnis von den Veränderungen in Wissenschaft, Wirtschaft und Gesellschaft essenziell. Die dabei wichtigste Herausforderung ist es, zu verstehen, wie wissenschaftliche und technologische Entwicklungen und gesellschaftliche Prozesse aufeinander einwirken.
   Welche Rollen werden Wissenschaft und Technik in der deutschen Gesellschaft der Zukunft spielen? Hier gibt es fünf zentrale Themengebiete, die auch bereits in der Übersicht 1949-2009 erläutert wurden. Alle fünf Themen werden in den nächsten Jahrzehnten unverändert aktuell und gesellschaftlich prägend sein: (1) Energie, (2) Mobilität, (3) Informations- und Telekommunikationstechnik, (4) Gesundheit und (5) Umwelt.

SYBE RISPENS science writing -
Energie
K
limawandel, steigender Energiebedarf und knapper werdende Rohstoffe stellen Deutschland bei der Energieversorgung in den nächsten zwanzig Jahren vor große Herausforderungen. Dabei wird es zu epochalen Veränderungen im Energiehaushalt kommen. Diese Veränderungen werden die deutsche Gesellschaft, Wissenschaft und Technologie grundlegend verändern. Welche Veränderungen sind bezüglich der heute bekannten Energieformen - Kohle, Erdöl, Erdgas und regenerative Energiequellen – zu erwarten?
   Kohle ist immer noch einer der wichtigsten Energieträger der Welt. Global betrachtet wird Kohle für mehr als ein Drittel der gesamten Energieerzeugung verwendet. Auch in Deutschland lagern gewaltige Mengen an Braunkohle. Diese sind zu einer kostengünstigen Energiequelle zu verwerten. Wenn nur die Hälfte der Vorräte mit dem Stand der heutigen Technologie gewonnen werden könnte, dann würde der Vorrat für etwa zwei weitere Jahrhunderte ausreichen. Die Nutzung von Kohle ist aber nicht nur abhängig von den Vorräten, sondern auch von alten und neuen Umweltproblemen. Zu den altbekannten Problemen zählen Ruß und die Emission von Schwefel- und Stickoxiden bei der Verbrennung, was z.B. zu saurem Regen führt. Zu den neuen Problemen - zumindest, was dessen Ausmaße betrifft - gehört der Ausstoß von CO2, Von allen fossilen Brennstoffen entsteht bei der Verbrennung von Kohle die größte Menge an CO2 pro Energieeinheit – etwa ein Drittel mehr als bei raffinierten Erdölprodukten und fast doppelt so viel wie bei Erdgas. Nur wenn es in den nächsten zwanzig Jahren gelingt, die CO2–Emission bei Verbrennungsvorgängen zu reduzieren, kann Kohle weiterhin als Energiequelle genutzt werden.
   Es braucht dazu in den nächsten Jahrzehnten neue technische und wissenschaftliche Durchbrüche, ökonomische Szenarien und gesellschaftliche Sicherheitsdebatten über die langfristige Lagerung von CO2 sowie deren Kosten und Umweltauswirkungen.

SYBE RISPENS science writing - Braunkohlebrikett, Brennstoff
Braunkohlebriketts werden heute häufig als Mitbrennstoff oder als Hauptbrennstoff in Holzheizungen, Kachelöfen sowie Beistellherden verwendet.
Erdöl ist ein weiterer wichtiger Energieträger: Durch Erdöl wird ein weiteres Drittel des weltweiten Energiebedarfs gedeckt. Die weltweit bekannten Erdölreserven sind - anders als in der Vergangenheit immer wieder befürchtet - unter dem stetig steigenden Bedarf nicht geschrumpft, sondern haben sich dank technischer Verbesserungen in der Ölgewinnung im Vergleich zu den Siebzigerjahren des letzten Jahrhunderts sogar verdoppelt. Im Moment rechnen Experten damit, dass die Ölvorräte den Weltverbrauch noch etwa 40 Jahre lang decken.
   Jedoch werden neue Forschungen und technische Erfindungen dazu führen, dass wir sparsamer mit Öl und dessen raffinierten Produkten umgehen können. Gefragt sind neue Strategien, die es erlauben, Öl selektiver und effizienter einzusetzen. Allerdings sollte man damit rechnen, dass Veränderungen im Energiebereich sehr lange dauern. Energierevolutionen, wie zum Beispiel der Umstellung von Holz auf Kohle oder von Kohle auf Erdöl, fanden bisher immer als langsame Marktentwicklungen statt. Auch wenn die Veränderungen in den nächsten zwanzig Jahre erheblich schneller vorangehen sollten, als im vergangenen Jahrhundert: Wir können und sollten heute davon ausgehen, dass Erdöl auch im Jahr 2030 bei der Erzeugung von Elektrizität, bei der Herstellung von Treibstoff und in der chemischen Industrie noch vielfach eingesetzt werden wird.    

Erdgas wird sich in den nächsten zwei Jahrzehnten weiter zu einer bedeutenden Alternative zu Kohle und Erdöl entwickeln: Rund ein Viertel des globalen Energiebedarfs wird bereits heute durch Erdgas gedeckt, Tendenz steigend. Erdgas ist als Energiequelle attraktiv, denn es erzeugt von allen fossilen Brennstoffen die geringste Menge an CO2 pro Energieeinheit. Auch hinsichtlich der sonstigen Luftverschmutzung, z. B. durch Ruß und Stickoxid schneidet Erdgas sehr gut ab. Eine wichtige Anwendung für Erdgas ist sein Einsatz im Gasturbinenkraftwerk. Diese Anlagen sind in Kombination mit schwankenden Energiequellen wie Solar- und Windanlagen interessant, denn die Gasturbinen können - anders als herkömmliche Kohle- oder nuklearbetriebene Kraftwerke - sehr schnell dem Bedarf angepasst werden. Seit einigen Jahren wird Erdgas auch verstärkt als Kraftstoff für Kraftfahrzeuge verwendet – ein Trend, der sich sicherlich bis 2030 weiter fortsetzen wird.
   
Deutschland legt einen starken Fokus auf erneuerbare Energien. Kein anderer Industriezweig hat in den letzten zwei Jahrzehnten eine solche Expansion, Innovation und Professionalisierung erlebt, wie der der erneuerbaren Energien. Neben den Primärenergieträgern Öl, Kohle und Erdgas stellen Wasserkraft, Windenergie, Photovoltaik und Bioanlagen eine inzwischen nicht mehr wegzudenkende Säule der Energiewirtschaft dar: Mehr als 15 Prozent des gesamten Stromverbrauchs in Deutschland werden inzwischen durch erneuerbare Energien gedeckt. Ihr Ausbau in Deutschland ist eine beispiellose Erfolgsgeschichte: Bereits heute wird mit erneuerbaren Energien ein Gesamtumsatz von etwa 25 Milliarden Euro erzielt und eine Viertelmillion Menschen sind in diesem Bereich beschäftigt.
   Die Windenergie kann dabei den größten Erfolg verzeichnen. Sie ist von allen erneuerbaren Energieformen (bis auf Wasserkraft) die am wirtschaftlichste und kann bereits heute mit Energie aus fossilen Quellen konkurrieren. Die nördlichen Bundesländern Mecklenburg-Vorpommern und Sachsen-Anhalt können in einem normalen Windjahr mehr als ein Drittel des Landesstromverbrauchs mit decken. Der Bedarf an Windenergie wird im Inland bis 2030 allmählich zurückgehen, aber vor der Küste Deutschlands und auf dem Weltmarkt wird die Technologie immer mehr gefragt sein.
   Aktuelle Schwerpunkte in der Forschung und Entwicklung von Windanlagen sind eine weitere Kostenreduzierung, Dimensionsvergrößerung, Ertragssteigerung und die Entwicklung von „virtuellen Kraftwerken“. Mit diesen können die natürlichen Schwankungen der Windstärke ausgeglichen werden. Dabei ermöglichen es ständig genauer werdende meteorologische Prognosesysteme, die von Windparks in das Stromnetz eingespeiste Leistung im Bereich von Stunden bis zu Tagen mit einer sehr hohen Genauigkeit im Voraus zu berechnen.
   
Auch bei der Erforschung und dem Einsatz von Solarenergie nimmt Deutschland weltweit eine führende Position ein: jedes zweite Solarmodul, das weltweit installiert wird, stammt aus deutscher Herstellung. In der Solarforschung gibt es verschiedene Ansätze: neue Materialien und Fertigungstechnologien, verbesserte und verkürzte Verfahren, Steigerung der Wirkungsgrade und Recycling. Bei den gängigen kristallinen Solarzellen arbeitet man vor allem daran, den Silizium-Verbrauch zu senken. Silizium ist derzeit noch das Ausgangsmaterial für die meisten Solarzellen. Besonders interessant dürften in den nächsten zwanzig Jahren die sogenannten Dünnschichttechnologien auf der Basis von Kupfer, Indium, Gallium, Selen und Schwefel sowie die Silizium-Dünnschichttechnologie sein.
   Im Bereich Solarstrom muss in den nächsten zwanzig Jahren noch Erhebliches geleistet werden, damit eine höhere Wirtschaftlichkeit erzielt werden kann - jede Kilowattstunde Strom aus einer Solaranlage kostet im Vergleich zur Windenergie heute noch drei- bis viermal so viel.
   In den nächsten zwei Jahrzehnten wird die Forschung in Deutschland auch daran arbeiten, weitere regenerative Energiequellen zu entwickeln. Ein Beispiel dafür ist die geothermische Stromerzeugung. Ein erstes deutsches Pilotkraftwerk wurde im Jahr 2003 in Mecklenburg-Vorpommern in Betrieb genommen. Ein Vorteil geothermischer Energie ist, dass sie in großen Anlagen erzeugt wird und somit gut in die bestehende Infrastruktur für Elektrizität passt. Anders als Sonnen- und Windenergie ist sie rund um die Uhr verfügbar. Aber es muss noch vieles erforscht werden im geothermischen Bereich, z. B. wie heiße, unterirdische Gesteine reagieren, wenn große Mengen Wasser abgepumpt werden. Auf die Erfahrung von Ölfirmen kann bei der Erforschung nicht zurückgegriffen werden, da diese Gebiete mit Granit bisher immer gemieden haben.

Es gibt also eine Vielzahl an Innovationen, die 2030 die Energieversorgung in Deutschland sicherstellen werden. Anders als in den vergangenen Jahrzehnten wird das Ziel dabei nicht mehr die Entwicklung einer großen neuen Energiequelle sein - wie beispielsweise in den Fünfziger- und Sechzigerjahren die Kernkraft -, sondern einen Energiemix aus unterschiedlichsten Quellen zu haben.
   Neben der Forschung an diversen Energiequellen stellt auch die Entwicklung eines „Internets der Energie“ einen vielversprechenden Ansatz dar. Das seit 2009 vom Bundesministerium für Wirtschaft und Technologie (BMWi) geförderte Forschungsprojekt soll das gesamte Wissen in Deutschland im Bereich der Energieerzeugung sowie der Informations- und Telekommunikationstechnologie bündeln, damit der Strom im Jahr 2030 aus einem intelligenten Regelnetzwerk zu den Nutzern fließt. Das Ziel ist es, das bisher statische und zentral geleitete Stromnetzwerk so zu verändern, dass eine flexible, intelligente, dezentrale Steuerung von unterschiedlichsten Energiequellen und energieverbrauchenden Geräten möglich ist. Da Strom sich nicht einfach speichern lässt, müssen Energieproduktion und -nachfrage zu jeder Tageszeit exakt koordiniert werden. Das intelligente Stromnetz der Zukunft kann unterschiedlichste Daten - wie etwa Erzeugungskapazität von normalen und virtuellen Kraftwerken, Wetterprognosen und Schwankungen im Energiebedarf - laufend aufeinander abstimmen. Gefragt ist dabei ein „erzeugungsorientierter Verbrauch“ - gesteuert durch ein Netz von zentralen und dezentralen Computern, die dafür sorgen, dass stromverbrauchende Endgeräte erst dann eingeschaltet werden, wenn durch Starkwind überschüssiger und damit besonders kostengünstiger Strom zur Verfügung steht. Nicht alle, aber viele elektrische Geräte und Anlagen eignen sich dazu, an das „Internet der Energie“ angeschlossen zu werden.


Mobilität
W
er im Jahr 2030 mit dem Auto so schnell wie möglich von einem Ort zum nächsten kommen will, wird wohl weniger ein starkes als vielmehr ein intelligentes Auto brauchen. Denn in zwanzig Jahren wird es noch mehr Staus auf den Autobahnen geben als heute. Im Personenverkehr muss mit einer Steigung von etwa 25 Prozent gerechnet werden. Beim Güterverkehr auf der Straße ist sogar eine Verdopplung des Verkehrsaufkommens vorauszusehen. Die Durchschnittsgeschwindigkeit des Individualverkehrs wird weniger von PS, Stromlinienförmigkeit oder Beschleunigung bestimmt sein, als von einer intelligenten Nutzung der Infrastruktur der Straßen.    
   Das gesamte Wissen aus dem Informations- und Kommunikationssektor im Verkehrswesen ist notwendig, um die Frage des Individualverkehrs bis 2030 lösen zu können. Es geht dann zum Beispiel um Fahrerassistenzsysteme, die untereinander kommunizieren können. Die intelligenten Kommunikationssysteme können etwa dazu genutzt werden, den verfügbaren Platz auf der Autobahn besser auszunutzen. Um die Fahrsicherheit nicht zu gefährden, brauchen menschliche Fahrer relativ viel Abstand zwischen dem eigenen Auto und den Fahrzeugen um sie herum. Wo Menschen Meter brauchen, um Beulen und Schäden zu verhindern, da können Computer Autos im Millimeterbereich sicher nebeneinander fahren lassen.
   Die Daten großflächig eingesetzter Verkehrsbeobachtungssysteme können dazu genutzt werden, für jedes Auto die optimalste Strecke über die Autobahn zu errechnen. Aus einer Vielzahl von Parametern wie Verkehrsaufkommen, Straßenbenutzungsgebühren und gewünschte Reisezeit, kann jedes Fahrzeug den für sich besten Weg ermitteln. Dabei werden Autos - ähnlich wie Datenpakete im Internet - unsichtbar von zentralen und dezentralen Rechnersystemen über die verfügbaren freien Ressourcen im Asphaltnetzwerk geschickt.
   Mit diesen intelligenten Systemen lässt sich aber nicht nur die Reisezeit verkürzen, sondern auch die Fahrsicherheit wird erheblich verbessert. Wenn Autos individuelle Informationen über den weiteren Verkehrsverlauf auf der Strecke haben, zum Beispiel über ein Stauende, einen Unfall, ein Gegenfahrzeug im Dunkeln oder Blockaden auf der Fahrbahn, dann können damit viele Menschenleben gerettet werden. Bereits heute sorgt der Einsatz von Automobilsoftware dafür, dass die Zahl der tödlich verunglückten Menschen jedes Jahr um etwa zehn Prozent zurückgeht.

Da im Jahr 2030 mehr Menschen in Städten wohnen werden als heute - ein Drittel der gesamten Bevölkerung weltweit -, nimmt die Bedeutung der intelligenten Lenkung des Verkehrs zu. Metropolen testen bereits intelligente Systeme, die helfen sollen, den drohenden Verkehrsinfarkt zu vermeiden. Diese Technik ist dringend notwendig, denn schon heute steht jeder deutsche Erwerbstätige pro Jahr durchschnittlich drei Tage im Stau. Das kostet die Wirtschaft etwa 100 Milliarden Euro jährlich.
   Die Bedeutung der öffentlichen Verkehrsmittel dürfte bis 2030 steigen: Einerseits wird der Pendelverkehr in den Städten zunehmen, andererseits auch der Verkehr zwischen den Ballungszentren. Die Angebote im Schienenverkehr sind durch Wettbewerbsmodelle vielfältiger und innovativer geworden. Hochwertige mobile computergestützte Technologien werden dafür sorgen, dass im Personen- und vor allem auch im Güterverkehr logistische Aufgaben schneller, einfacher und präziser durchgeführt werden können. Eine historische Entwicklung, die seit den Fünfzigerjahren in Deutschland dazu geführt hat, dass das Auto gegenüber der Bahn immer mehr an Bedeutung gewonnen hat, wird bis zum Jahr 2030 schrittweise umgekehrt.
   Trotz eines erheblichen Ausbaus der Flughäfen übersteigt im Jahr 2030 die Nachfrage die Kapazitäten. Das größte Problem beim Flugverkehr wird die Belastung durch Fluglärm sein. Eine Möglichkeit, dieses Problem zu beheben, besteht darin, den Piloten zu erlauben ihre eigenen Anfluglinien zu wählen. Heutzutage sind alle Flugzeuge gezwungen, ihren Landeanflug in einer festen Einflugschneise durchzuführen. Das macht es für Flugverkehrsaufseher einfacher, die Flugzeuge sicher starten und landen zu lassen. In den letzten Jahrzehnten gab es zwar verschiedene Automatisierungsgroßprojekte, die jedoch noch nicht dazu geführt haben, dass die Arbeit menschlicher Fluglotsen von Maschinen übernommen werden kann. Mögliche Lösungen wird es bis 2030 geben, wenn jedes Flugzeug ein intelligentes Navigationssystem besitzt, bei dem Rechnersysteme mit dem Flugleitzentrum, aber auch mit allen sich in der Nähe befindlichen Flugzeugen kommunizieren. Als Folge dieser Entwicklung trüge nicht mehr ein einziges Flugleitsystem die Verantwortung für den gesamten Flugverkehr, sondern jedes einzelne Flugzeug für sich selbst.

Wie wir uns im Jahr 2030 auch fortbewegen werden: Mobilität ist nicht länger mehr nur eine Frage von Karosserien, Motoren, Zügen und Flugzeugen, sondern intelligente Systeme zur Lenkung des Verkehrsstroms werden zunehmend an Bedeutung gewinnen. Deutschland hat die besten Voraussetzungen, um bei dieser Entwicklung ganz vorn mitzuwirken: Die Industrie hierzulande nimmt eine weltweite Spitzenposition ein, wenn es darum geht, hochwertigen Maschinenbau mit Informations- und Telekommunikationstechnologie zu kombinieren. Die Grenzen der Mobilität werden in Zukunft durch solche intelligenten und vernetzten Rechnersysteme bestimmt werden.

Informationstechnologie
I
n der vernetzten Welt des Jahres 2030 kommt der Informations- und Kommunikationstechnologie (IKT) eine noch größere Bedeutung zu, als es heute bereits der Fall ist. Die elektronische Vernetzung von Gegenständen des Alltags wird uns überall begegnen: Miniatur-Identifikations-Chips (RFID-Chips) und mobile Rechnersysteme stehen ständig miteinander und mit dem Internet in Verbindung. Das „Internet der Dinge“ sorgt für eine Verschmelzung von sichtbaren Gegenständen der Welt um uns herum und unsichtbaren Informationen im weltumspannenden Datennetzwerk.
   Das verlangt vor allem Durchbrüche in der Entwicklung neuer Software. Denn die Entwicklungen der Informationstechnologie im letzten halben Jahrhundert lassen eine klare Tendenz erkennen: Die Bedeutung von Innovationen wird zunehmend durch Software bedingt. Vor allem die Standardisierung der Kommunikation spielt dabei eine zentrale Rolle. Denn sie sorgt dafür, dass eine reibungslose Kommunikation zwischen mobilen Rechnern, zentralen Rechnern und gegenständlichen Objekten möglich ist. Dazu wird eine Software benötigt, mit der sich Informationen einheitlich bearbeiten, komprimieren, speichern und verschicken lassen.
    Neben der besseren Kommunikation zwischen Maschinen, ist auch eine neue Software gefragt, mit der die Interaktionen zwischen Maschinen und Menschen optimiert wird.

Intelligentere Software zu entwickeln, die eine bessere Kommunikation zwischen Maschine und Mensch ermöglicht, ist eine große Herausforderung. Bereits seit vier Jahrzehnten werden „denkende Computersysteme“ für die „nahe Zukunft“ vorausgesagt. Viele Forschungsprogramme, etwa zur Verbesserung der Spracherkennung, sind gescheitert. Es müssen in den nächsten zwanzig Jahren einige Grenzen des bisher Möglichen überschritten werden, um das „Internet der Dinge“ zu realisieren.
   Was die Kommunikation zwischen Maschinen betrifft, so haben wir am Anfang des einundzwanzigsten Jahrhunderts einen wichtigen Meilenstein gesetzt: Die Konvergenz der Medien hat stattgefunden. Das heißt, dass Medien, die früher nebeneinander existierten, wie Telefon, Radio, Fernsehen, Zeitungen und Bücher, jetzt alle in einem Netzwerk miteinander verflochten sind. Das Ziel ist es nicht nur, die Informationen dieses Netzwerkes von Maschinen verschicken zu lassen, sondern den Maschinen auch ein Basisverständnis über die Inhalte dieser Informationen mitzugeben. Es geht darum, Nachrichten, Bilder, Bücher, Begriffe und Filme in formale, für Rechner verständliche Modelle zu übersetzen. Um das „Wissensnetz“ bzw. semantische Netz“ der Zukunft realisieren zu können, muss es gelingen, eine Form der Wissensrepräsentation zu finden, die von Maschinen verstanden wird. Neue Wege müssen gefunden werden, um Begriffe und Beziehungen zwischen den Begriffen in Modellen festzuhalten. Diese Modelle beinhalten Thesauri, Taxonomien und Wortnetze, die hierarchisch organisiert miteinander verbunden werden. Allerdings ist noch weitgehend ungewiss, ob und wie es möglich sein wird, Wissen so in Modellen festzuhalten, dass Maschinen damit sinnvolle Abwägungen machen können.

Was die Interaktion zwischen Mensch und Maschine betrifft, so ist die größte Herausforderung der nächsten zwei Jahrzehnten, die Bedienung der Maschinen näher an die Formen der menschlichen Kommunikation anzulehnen. Das ist notwendig, da zu erwarten ist, dass alle anderen Formen der Informationsvermittlung aufgrund der enormen Flut an Daten unzureichend werden. Auf der Eingabeseite heißt es, Systeme zu entwickeln, die die natürliche Gestik und Mimik des Menschen sowie die natürliche gesprochene Sprache interpretieren können. Die natürliche Sprache des Menschen wird dabei in Wortsegmente und Laute unterteilt, die wiederum in einzelne Frequenzen zerlegt und verarbeitet werden. Anschließend findet die tatsächliche Erkennung mithilfe von akustischen Modellen, Wörterbüchern und Sprachmodellen statt. Neue Systeme müssen geschaffen werden, um sprecherunabhängige Nutzung zu ermöglichen, die ein Benutzer ohne vorbereitende Trainingsphase sofort verstehen kann. Es existieren bereits solche Systeme, deren Wortschatz aber noch sehr begrenzt ist.
   Auch bei der Ausgabe der Daten sind neue Konzepte gefragt: Um mit komplexen Daten umzugehen, brauchen Menschen mehr als Blinksignale, Schaltanzeigen und Displays voller Messwerte. Idealerweise werden lebensgroße, künstliche Personen oder grafische Stellvertreter einer echten Person, die in einer natürlichen Art mit Menschen kommunizieren, auf Bildschirmen abgebildet. Heute kennt man künstliche Personen, „Avatare“ genannt, hauptsächlich aus Computerspielen. Aber auch in den Laboren werden Avatare auf ihre Möglichkeiten hin untersucht, grundlegende Verbesserungen in der Interaktion zwischen Mensch und Maschine zu bewirken.

Um die Potenziale des „Internets der Dinge“ in Deutschland zu realisieren, wird bereits heute an vielen Stellen die Initiative ergriffen. So hat das Bundesministerium für Wirtschaft und Technologie gerade ein Forschungsprogramm initiiert, das dabei helfen soll, die Informationstechnologie in den kommenden Jahrzehnten zu verbessern. Das Bundesministerium für Bildung und Forschung unterstützt schon seit einigen Jahren kooperative, vorwettbewerbliche Forschungsvorhaben zur Stärkung der Softwaretechnik in Deutschland.


Gesundheit

I
m Gesundheitsbereich sind die größten Herausforderungen in den nächsten zwei Jahrzehnten das Entwickeln von besseren Diagnosesystemen und individuelleren Behandlungsmethoden. Und: Gesundheit ist nicht gleich Abwesenheit von Krankheit, sondern eine ganze Gesundheitsindustrie entsteht.
   Das Ziel neuer Diagnosesysteme ist es, Krankheiten so früh wie möglich zu erkennen und zu behandeln. Die Chance, dass sich ein Krebsgeschwür erfolgreich behandeln lässt, sind eben deutlich höher, wenn es nur einige wenige Millimeter groß ist, als wenn es schon im umliegenden Gewebe gewuchert hat. Somit wird konstant daran gearbeitet, neue Diagnosetechniken zu entwickeln, die einen detaillierteren Einblick in den menschlichen Körper ermöglichen.
    Neue Technologien sollen die Entwicklung eines ultimativen Scanners ermöglichen, mit dem alle relevanten Vorgänge im Körper angezeigt und registriert werden können. Mit den Scans können Ärzte zum Beispiel herausfinden, in welchen Teilen des Körpers viel Energie verbraucht wird. Die Anforderungen, die an die ständig präziser und schneller werdenden Diagnoseverfahren gestellt werden, sind zweigeteilt: Zunächst muss es gelingen, durch die Forschung - beispielsweise im Bereich der molekularen Biologie - neue Verfahren zu finden, die es erlauben, Organe und Vorgänge im Körper noch detaillierter darzustellen.
   Andererseits gilt es, die ständig zunehmende Flut an digitalen Messdaten so aufzubereiten und auf das Wesentliche zu reduzieren, dass Spezialisten sie noch verarbeiten können. Bereits heute müssen manche Ärzte pro Tag Zehntausende von Abbildungen betrachten, um ihre Arbeit richtig machen zu können. Sie arbeiten an der Grenze des menschlichen Datenerfassungsvermögens. Somit werden die Diagnosesysteme der Zukunft nicht nur ständig detailliertere Bilder liefern müssen, sondern es wird auch erforderlich sein, dass sie den Menschen bei der Diagnosestellung assistieren oder sogar teilweise ablösen können.
   Zunehmend wird die Diagnose auch von den Krankenhäusern zu den Patienten nach Hause verschoben. Kleine, mobile medizinische Diagnosesysteme, die beispielsweise den Blutzuckerspiegel oder den Sauerstoffgehalt im Gehirn kontrollieren können, werden bis zum Jahr 2030 üblich sein. Dank einer digitalen Vernetzung dieser mobilen Diagnosesysteme können die Messwerte von unterwegs aus direkt zum Spezialisten im Krankenhaus geschickt werden.

SYBE RISPENS science writing - Glasfaserkabel, Photonik, Lichtwellenleiter wikimedia
creative commons wikimedia
Über 90 Prozent des interkontinentalen Sprach- und Internetverkehrs laufen heute über Glasfaserkabel.
Die größte Herausforderung bei der Entwicklung stationärer und mobiler Diagnosesysteme ist die Erschaffung einer Art „Internet der Medizin“ - ein digitales Netzwerk, über das medizinische Daten effizient und abhörsicher transportiert werden können. Ohne ein derartiges System droht Ärzten und Krankenhäusern eine unüberwindbare Datenflut oder - und das ist möglicherweise noch schlimmer - ein „Wildwuchs“ von unterschiedlichen Netzwerklösungen, die untereinander nicht kompatibel sind. Essenziell für das „Internet der Medizin“ ist, dass die Vertraulichkeit der Daten langfristig gewährleistet ist - im Idealfall ein Menschenleben lang. Denn Sicherheit gehört bei medizinischen Daten zur höchsten Priorität.
   Deutschland liegt heute international vorn bei der Entwicklung einer Infrastruktur, die einen sicheren Datentransport zwischen den unterschiedlichen Akteuren im medizinischen Bereich ermöglicht. Das System ist angelegt als sichere Infrastruktur und offene Plattform. Sicher, da nur der Patient selbst bestimmt, wer seine Daten zu welcher Zeit einsehen kann. Offen, weil jeder Hersteller die sichere Infrastruktur verwenden kann, um neue medizinische Anwendungen zu entwickeln.
   So wie in den Achtzigerjahren im europäischen Kontext die Netzwerke für den Mobilfunk geschaffen wurden, so werden in den nächsten zwei Jahrzehnten europaweit die neuen Infrastrukturen ausgebaut, die die sichere elektronische Verarbeitung medizinischer Daten gewährleisten.

In Bereichen, in denen sich die Diagnose sehr verfeinert, wird auch die Behandlung individueller werden. Implantate können etwa aus lebendigem Gewebe hergestellt werden – exakt zum jeweiligen Patienten passend, damit die selbstheilenden Mechanismen des Körpers optimal unterstützt werden können.

Genauere Diagnosen und individuellere Behandlungsmethoden werden zu einer Erhöhung der Lebenserwartung führen. Das deutsche Gesundheitssystem muss - noch verstärkt von demographische Entwicklungen - bis 2030 also mit einer deutlichen Zunahme an älteren Menschen rechnen. Dabei wird es wichtig, Programme zu entwickeln, die uns dabei helfen, auch im hohen Alter noch körperlich aktiv und in Bewegung zu sein. Vor allem Älteren ist am meisten geholfen mit Apparaten, die es ihnen ermöglichen, so lange wie möglich für sich selbst zu sorgen und in Bewegung zu bleiben. 2030 helfen Roboter den älteren Menschen vielleicht beim Aufstehen, beim Hören, Sehen, Auf-die-Toilette-Gehen und beim Verstehen von Menschen, die zu schnell sprechen.


Umwelt
V
iele der Umweltprobleme der vergangenen Jahrzehnte wird es im Jahr 2030 zwar noch geben, aber sie sind durch neue, effizientere Technologien nicht mehr prinzipiell unlösbar. Die Emissionen eines Autos können 2030 zum Beispiel deutlich zurückgegangen sein im Vergleich zu heute. Aufgrund des starken Anstiegs der Fahrzeugzahlen, wird allerdings die Gesamtbelastung an Ruß- und CO2-Ausstoß sowie an Lärm kaum vom heutigen Wert abweichen. Trotzdem können neue technische Verfahren und neue Materialien die Umweltbelastung einzelner Bereiche vermindern - Luft, Wasser und Boden können durch evolutionäre Entwicklungen bestehender Techniken ständig sauberer werden.
   Während im Bereich der lokalen Emissionen in den nächsten Jahrzehnten viele kleine und große Fortschritte zu erwarten sind, so stehen wir noch vor großen Herausforderungen bezüglich der globalen Auswirkung der Menschheit auf den Planeten Erde. Der Klimawandel schreitet schneller voran und wird größere Auswirkungen haben als bislang vermutet. Wie wird sich eine globale Erderwärmung auf Deutschland auswirken?

SYBE RISPENS science writing - Chicago, Urbanisierung, Metropolregion
Chicago galt im 19. Jahrhundert als Experimentierfeld für urbane Innovationen. Die Einwanderer verbreiteten sich über das Umland. Das sogenannte „Chicagoland“ lag 2008 mit 9,5 Millionen Einwohnern an 30. Stelle der Liste der größten Metropolregionen der Welt. In der Stadt selbst leben knapp 3 Millionen Bürger.

Die Klimaforschung steht erst am Anfang. Es gibt noch viele offene Fragen, die auch von deutschen Forschern sehr genau analysiert werden, zum Beispiel im weltweit führenden Potsdamer Institut für Klimaforschung. Das Institut hat im April 2009 eine Studie über die zu erwartenden Veränderungen in Berlin herausgegeben. Obwohl Studie vom Jahr 2050 und Berlin ausgeht, werden viele der signalisierten Trends schon im Jahr 2030 für Deutschland relevant sein.
   Kurz zusammengefasst sehen die erwarteten Veränderungen etwa wie folgt aus: Es ist mit einem deutlichen Temperaturanstieg von etwa 2 bis 2,5 Grad zu rechnen. Die Temperaturen im Winter steigen mehr als im Sommer. Das sorgt dafür, dass die Niederschläge im Sommerhalbjahr zurückgehen, während sie im Winterhalbjahr zunehmen. Die Häufigkeit und Intensität von extremen Wetterereignissen nimmt vor allem in den wärmeren Wintern zu. Im Sommer hingegen nehmen die Wärmeextreme zu - es ist vermehrt mit langen Hitzeperioden, tropischen Nächten und Hitzetagen zu rechnen. Der Klimawandel hat einen direkten Einfluss auf den Wasserhaushalt. Höhere Temperaturen führen zu mehr Verdunstung, einem verringerten Abfluss und geringeren Grundwasserneubildungsraten. Ab 2030 ist in Trockenperioden im Sommer damit zu rechnen, dass der Zufluss von Trinkwasser in vielen Städten zum Erliegen kommen kann.
   Durch den Klimawandel wird das Stadtklima trockener werden, es wird zu einer Einschränkung der Lebensqualität und zu zusätzlichen gesundheitlichen Belastungen durch klimatisch bedingten Stress kommen. Wälder werden unter dem sinkenden Grundwasserspiegel und der höheren Sonnenstrahlungsbelastung leiden, aber keine hierzulande vorkommende Baumarten - Buche, Eiche, Kiefer und Birke - ist in den Szenarien vom Aussterben bedroht. Die Buche reagiert sogar als einzige Baumart tendenziell positiv auf den Klimawandel.

Grundlegend bei dieser Art von Zukunftsszenarien sind Annahmen darüber, ob und wie es zu bestimmten „Bruchstellen“ im globalen Klimasystem kommt. Die Regenwälder im Amazonasgebiet werden bis zum Ende des Jahrhunderts wahrscheinlich vollkommen verschwunden sein - aber wie wird sich die neugebildete Wüste auf die Regelkreise des Erdklimasystems auswirken? Was wird sich verändern, wenn die Monsunwinde - großräumige Luftzirkulationen der unteren Troposphäre im Gebiet der Tropen und Subtropen - zum Erliegen kommen? Betrifft es uns, wenn im Himalaja die Gletscher schmelzen? Merken wir etwas davon, wenn das Eis der Antarktis verschwindet?
   Die meisten Wissenschaftler sind der Meinung, dass die Regelsysteme der Erde bistabil sind - es sind komplexe Regelkreise, die zwei mögliche Zustände einnehmen können und nur durch einen äußeren Impuls von dem einen in den anderen Zustand wechseln.
   Zum Beispiel steht Grönland kurz vor einem solchen Umkipppunkt: Im Jahr 2030 könnte das Eis auf Grönland unwiderruflich anfangen zu schmelzen. Wenn das passiert, dann ist es für uns Menschen unmöglich, diesen Prozess noch aufzuhalten und der Meeresspiegel würde in den nächsten dreihundert Jahren um mehr als sechs Meter ansteigen.
   Diese Art von Phänomenen stellt die Menschheit vor völlig neue Fragen. Noch wissen wir nicht, wann bestimmte Regelsysteme von der einen in die andere stabile Phase umkippen werden, und wir wissen nicht genügend über die möglichen Auswirkungen dieser Veränderungen auf das gesamte Erdklima.
   
Computermodelle spielen bei der Klimaforschung eine wichtige Rolle. Bis zum Jahr 2030 ist ein großer Anstieg der Rechenkraft von Computern zu erwarten, und vielleicht hilft das, einzelne Submodelle der Regelsysteme vom Erdklima in einem großen, adäquaten Modell der Erde zusammenzubringen. Dafür ist es notwendig, Millionen Daten der Atmosphäre, der Ozeane, Eisschichten, Biosphärensysteme, Emissionswerte und des CO2-Regelkreises der Erde zu sammeln. Alle Regelkreise der Erdatmosphäre hängen miteinander zusammen.
   Das Ziel neuer Forschungsanstrengungen ist es, so viel Wissen über die Regelsysteme der Erde zu erlangen, dass die Gesellschaft die Möglichkeit hat, auf die künftigen Veränderungen rechtzeitig zu reagieren.


---

SYBE RISPENS science writing - bmbf.jpg<br/>
Dieser Text ist entstanden als Teil des Wissenschaftsjahrs 2009, "Forschungsexpedition Wissenschaft", im Auftrag vom Bundesministerium für Bildung und Forschung.

Reagieren? Schreiben Sie uns!

creative commons 2009, SYBE RISPENS science writing




main navigation www.rispens.de, Dr. Sybe Izaak Rispens, SYBE RISPENS science writing
looking glass
last update: 4/12/2009
SYBE RISPENS science writing, papershade