Forschungsinitiative Future Internet

Motivation der Forschungsinitiative

Die Bereitstellung, Verarbeitung und Nutzung von Information jeder Art hat sich in den letzten 15 Jahren in dramatischer Geschwindigkeit geändert. Mosaic, einer der ersten Browser für das World Wide Web, konnte im September 1993 nur auf etwa 200 Webserver zugreifen, heute werden laut Netcraft-Report von etwa 160 Millionen Servern mehr als 40 Milliarden1 Webseiten bereitgestellt. Über das World Wide Web und die daran angeschlossenen Datenbanken ist mittlerweile ein Großteil des weltweit vorhandenen Wissens verfügbar. Die Vernetzung von Informationsquellen, aber auch die Gewinnung und Nutzung von aktueller Information der realen Welt („Internet of Things“, „Smart Cities“) ist mittlerweile aus unserem Alltag nicht mehr wegzudenken. Dabei entwickelt sich das Internet zu einem interaktiven Medium (Web 2.0), in dem Information nicht nur gesucht sondern auch kooperativ eingebracht und verändert werden kann. Dies schließt den Zugriff und das Beeinflussen physikalischer und technischer Prozesse über die allgegenwärtigen Netze mit ein.

Trotz oder vielleicht gerade wegen dieser enormen Fortschritte stellen sich uns heute mehr Herausforderungen in diesem Bereich als vor 15 Jahren2. Wie finde ich aus der Vielzahl der verfügbaren Informationen die für mich relevanten heraus? Welchen Quellen kann ich vertrauen, wie können Informationen aus unterschiedlichsten Quellen aggregiert und ausgewertet werden? Im Kontext des Web 2.0 werden heute täglich mehr Informationen ins Web gestellt als über traditionelle Wege. Welche Rolle werden diese Informationen, deren Diversität und Qualitätsunterschiede noch deutlich höher sind als die von traditionellen Webseiten, in den nächsten 15 Jahren spielen? Das Internet bietet klassischen Bibliotheken mit ihrem staatlichen Informationsauftrag die Möglichkeit, sich untereinander zu vernetzen und verfügbare Informationsquellen zu erschließen – wie werden sich ihre Dienstleistungen im Jahr 2023 von denen im heutigen Jahr unterscheiden? Wie werden Forscher der Leibniz Universität Hannover in 15 Jahren mit ihren Kollegen in aller Welt zusammenarbeiten – aufbauend auf zukünftigen eScience-Infrastrukturen, deren Grundlagen heute gelegt werden? Wie muss die eScience-Infrastruktur technisch konzipiert werden, um diesen zukünftigen Anforderungen gerecht zu werden? Wie können in einer verteilten und offenen Umgebung, wie sie das Internet bereitstellt, Systeme und Dinge des Alltags zuverlässig, effizient und selbstorganisierend vernetzt werden – im Sinne eines Organic Computing Paradigmas, das auch ohne zentrale Einheiten sichere und effiziente Strukturen und Steuerung hervorbringt? Und welche IT-Ökosysteme (s.u.) werden auf diesen Grundlagen in Zukunft aufbauen können? Wie werden diese technischen und sozialen Entwicklungen auf europäischer wie nationalstaatlicher Ebene rechtlich, insbesondere datenschutzrechtlich, zu bewerten sein?

Es ist aber nicht nur die Fülle der über das Internet zugreifbaren Informationen aller Art, deren Komplexität alle bisher gekannten Informationssammlungen weit in den Schatten stellt. Gegenwärtig ist das Internet noch weitgehend beschränkt auf Informationen, die in irgendeiner Weise von Menschen erzeugt wurden und für deren Aktualität Menschen verantwortlich sind. Hier liegt einer der möglicherweise bahnbrechendsten Erweiterungen des Internets, das bisher in nur wenigen Forschungsstudien betrachtet wurde. Vernetzte Roboter, Maschinen 2009&2010 als eines der und Sensoren nehmen eine Schlüsselrolle bei der Entwicklung eines „Google for the physical world“3 ein. Es gibt sehr große Mengen an nützlichen Informationen, die mit vergleichsweise einfachen Sensoren maschinell erzeugt und in Echtzeit aktuell gehalten werden können. Dies reicht von Informationen über freie Parkplätze, die in mit dem Internet vernetzten Navigationssystemen zur Optimierung der Routenführung genutzt werden können, über sehr fein auflösende, aktuelle Wetterdaten bis hin zu selbstständig agierenden Robotern und Softwareagenten, die verbunden mit dem Internet neue Informationen in hochdynamischen Umgebungen selbstständig explorieren, aber auch Aufträge mit Wirkungen auf die physikalische Welt ausführen. In Form von sehr vielen vernetzten, eingebetteten Computersystemen führt dies dann zu so genannten „Cyber-Physical Systems (CPS)“.4

 

1 Die Schätzung der Webseiten schwankt stark, da es mittlerweile selbst für die größten Suchmaschinen unmöglich ist, alle existierenden Webseiten zu indizieren.

2 Das Thema „Future Internet“ ist als „federating research theme“ im aktuellen Entwurf für das FP7 Arbeitsprogramm 2009 & 2010 als eines der Hauptthemen aufgeführt.

3 „From Internet to Robotics: The Next Transformative Technology“ by Henrik Christensen [Georgia Tech], Ken Goldberg [UC Berkley], Sebastian Thrun [Stanford University] et. al., CCC study, The Computing Research Association, USA

4 CPS Environments (http://varma.ece.cmu.edu/cps/Position&Papers/Roy&Campbell.pdf ) oder Cyber‐Physical Systems (http://chess.eecs.berkeley.edu/cps/ )