Inverse und schlecht gestellte Probleme
Der Schwerpunkt unserer wissenschaftlichen Arbeit liegt im Bereich der inversen Probleme, einem aktuellen Gebiet mit zahlreichen Anwendungen in der Medizin, den Natur- und Ingenieurwissenschaften. Bei den resultierenden linearen oder nichtlinearen Gleichungen stellt sich in vielen Fällen die von Hadamard Anfang des 20. Jahrhunderts erstmals aufgeworfene Frage nach der sachgemäßen Formulierung ("well-posedness'') des Problems. Neben der Frage nach Existenz und Eindeutigkeit (Identifizierbarkeit) der Lösung ist - gerade im Kontext der numerische Mathematik - die stetige Abhängigkeit der Lösung von den gegebenen Parametern der kritische Punkt. Bei inversen Problemen ist diese Eigenschaft allzu oft verletzt; das Problem ist unsachgemäß gestellt ("ill-posed''). Die Folge ist ein unbeschränkt anwachsender Datenfehler bei einer exakten Inversion.
Um dies zu vermeiden, muss ein gewisser Verfahrensfehler bei der numerischen Rekonstruktion in Kauf genommen werden. Man spricht allgemein in diesem Zusammenhang von einer Regularisierung des Problems. Zu jedem Regularisierungsverfahren gehört ein entsprechender Regularisierungsparameter, der den Kompromiss zwischen fortgepflanztem Datenfehler und Verfahrensfehler steuert. Diesen Zweck kann beispielsweise ein Diskretisierungsparameter oder - wie etwa in der Tikhonov-Regularisierung - ein spezieller Verfahrensparameter erfüllen.
In unseren Arbeiten stehen iterative Regularisierungsverfahren im Vordergrund, bei denen der Iterationsindex die Rolle des Regularisierungsparameters übernimmt. Die entsprechenden Untersuchungen konzentrieren sich auf semiiterative Verfahren (die ν-Methoden) und das Verfahren der konjugierten Gradienten (CG-Verfahren) im linearen Fall bzw. Newton-artige Verfahren im nichtlinearen Fall. Die lineare Theorie ist inzwischen weitgehend abgeschlossen und in der gemeinsam mit H.W. Engl und A. Neubauer (Johannes Kepler Universität Linz, Österreich) verfassten Monographie dargestellt. Aktuell stehen daher verstärkt nichtlineare Probleme im Mittelpunkt des Interesses, etwa die elektrische Impedanztomographie.
Die elektrische Impedanztomographie wurde erstmals in den 80er Jahren als Alternative zu herkömmlichen tomographischen Diagnoseverfahren in der Medizin in Betracht gezogen. Ziel dieses typischen inversen Problems ist die Rekonstruktion des ortsabhängigen elektrischen Leitfähigkeitskoeffizienten aus dem Ohmschen Gesetz im Innern des menschlichen Körpers anhand von Strom/Spannungsmessungen auf der Haut. Der potentielle Vorteil dieser Methode besteht in der geringeren gesundheitlichen Belastung der Patienten bei gleichzeitig deutlich reduzierten Behandlungskosten. Das Skriptum zu einer im SS 2004 gehaltenen Vorlesung kann als Einführung in dieses attraktive Forschungsgebiet herangezogen werden.
Gemeinsam mit dem ehemaligen Mitarbeiter Dr. M. Brühl haben wir ein neuartiges Verfahren entwickelt und theoretisch abgesichert (die so genannte Faktorisierungsmethode), mit dem sich sehr effektiv Unstetigkeiten in dem gesuchten Leitfähigkeitskoeffizienten erkennen lassen. Dieses Verfahren scheint daher für die Rekonstruktion verschiedener Gewebetypen im Körperinneren prädestiniert zu sein. Eine populärwissenschaftliche Darstellung dieses Verfahrens aus dem Jahr 2000 findet sich im Forschungsmagazin der Johannes Gutenberg-Universität. Inzwischen wurde das Verfahren, das in einer interaktiven Version zu Demonstrationszwecken zugänglich ist, auf eine ganze Reihe verwandter Fragestellungen übertragen. Für eine aktuelle Übersicht der entsprechenden Ergebnisse sei auf einige Vortragsfolien verwiesen.
(Nanotechnologie)
Geschichte von LTE
Ein Vorläuferkonzept zu LTE wurde von Nortel Networks unter dem Namen High Speed OFDM Packet Access (HSOPA) vorgestellt. LTE verwendet Orthogonal-Frequency-Division-Multiplexing-Techniken (OFDM) sowie Multiple-Input-Multiple-Output-Antennentechnologie (MIMO). Damit soll es den Mobilfunkanbietern möglich sein, kostengünstig hochratige Datendienste anzubieten und so das mobile Internet zum Massenmarkt zu machen. Die geringen Latenzzeiten bei LTE erlauben die Übertragung von Sprachdiensten (VoIP) und Videotelefonie über das Internetprotokoll sowie den Einsatz zeitkritischer Anwendungen wie zum Beispiel Online-Spielen.
Bereits jetzt sind mit UMTS sehr hohe Datenraten möglich. Es wird erwartet, dass der Bedarf an mobilen Internetdiensten weiter steigt. Gegenüber der alternativen Technologie WiMAX soll LTE den Mobilfunkanbietern einen kostengünstigen evolutionären Migrationspfad von UMTS über HSDPA und HSUPA zu LTE ermöglichen. LTE unterstützt im Gegensatz zu UMTS verschiedene Bandbreiten (1,4; 3; 5; 10; 15 und 20 MHz) und kann so flexibel in unterschiedlichen zukünftigen Spektren eingesetzt werden. OFDM ermöglicht dabei durch eine größere Anzahl an Unterträgern eine einfache Skalierbarkeit der Bandbreite. Bei 20 MHz (entspricht laut Standard der Benutzung von 1200 Unterträgern) sollen Spitzendatenraten von 300 Mbps im Downlink und 75 Mbps im Uplink mit Latenzzeiten unter 5 ms erreicht und so die langfristige Konkurrenzfähigkeit von UMTS-Systemen gesichert werden. Im Uplink wird mit SC-FDMA (DFTS-OFDMA) ein OFDMA-ähnliches Zugriffsverfahren verwendet, welches sich durch eine geringe Peak-to-Average-Ratio (PAR) auszeichnet und so den Leistungsverbrauch der Mobiltelefone verringert.
In der ersten Version von LTE (Release 8) werden fünf Terminalklassen mit unterschiedlichen Datenraten zur Verfügung stehen. Obwohl die höchste Klasse mit 4x4 MIMO und 64-QAM-Modulation die erwarteten Datenraten von 300 Mbps im Downlink und 75 Mbps im Uplink erfüllt, werden die ersten Terminals wohl deutlich geringere Datenraten zur Verfügung stellen und nur mit 2x2 MIMO im Downlink und ohne 64 QAM im Uplink arbeiten. Alle Terminals müssen eine Bandbreite von 20 MHz unterstützen.
Nokia Siemens Networks, ehemals Siemens Networks hat bereits im September 2006 zusammen mit der Nomor Research GmbH erstmals einen Emulator eines LTE Netzwerks mit Live-Applikationen gezeigt. Im Downlink wurden dabei zwei Nutzer mit einer HD-TV-Anwendung vorgeführt, während im Uplink eine Live-Gaming-Applikation gezeigt wurde. Wenig später im Dezember 2006 wurde dann auf der ITU TELECOM WORLD in Hongkong der weltweit erste LTE Demonstrator gezeigt. Nach Erweiterung des Demonstrators wurden im Mai 2007 in einem Experiment in der Münchner Niederlassung von Nokia Siemens Networks erfolgreich Daten mit bis zu 108 MBit/s im Upstream über ein LTE-Netz übertragen. Diese Datenrate konnte durch die Verwendung von „Virtual MIMO“ beziehungsweise SDMA Technologien erreicht werden. Dabei konnten 2 kooperierende LTE-Endgeräte, bestückt mit je einer Sendeantenne, gleichzeitig im selben Frequenzband Daten im Uplink übertragen. Unter Verwendung entsprechender MIMO Algorithmen können die überlagerten Datenströme durch ihre räumliche „Distanz“ separiert werden. Auf dem GSMA Mobile World Congress in Barcelona zeigte Ericsson 2008 erstmals eine Ende-zu-Ende-Verbindung mit LTE auf kompakten Mobilgeräten. Es wurden Datenraten von 25 MBit/s im Uplink und Downlink demonstriert.
Derzeit werden die ersten LTE-Feldtests durchgeführt. Wie bei UMTS wird erwartet, dass NTT DoCoMo in Japan der weltweit erste Betreiber sein wird, der LTE kommerziell einsetzen wird. Im März 2008 wurden in einem Feldtest von DoCoMO 250 Mbps demonstriert.
Ende 2008 wurde von LG ein LTE-Chip vorgeführt, welcher Datenraten von 60 Mbps erreicht, was etwa dem achtfachen der HSDPA-Cat8-Datenrate von 7,2 Mbps entspricht.
Plan in der 3GPP-Standardisierung ist es, Ende 2009 den endgültigen Standard zu verabschieden. Nach Inter-Operability-Tests und weiteren Feldtests 2009, wird für 2010 der Aufbau der ersten Netze erwartet.