...

forschung magazin g 2013

by user

on
Category: Documents
256

views

Report

Comments

Transcript

forschung magazin g 2013
magazin
g
forschung
Mai 2013
2,5-MW-Plattform Die Innovative
1,5-MW-Plattform Die Erfolgreiche
Zuverlässige VENSYS-Technologie
in zwei bewährten Leistungsklassen.
VENSYS-Windenergieanlagen überzeugen mit Permanentmagnet-Technologie,
Direktantrieb, Vollumrichtersystem und VENSYS-Pitchsystem. Und das weltweit –
mit bereits über 13.000 MW* installierter Gesamtleistung.
* Stand Dezember 2012
Direktantrieb
PermanentmagnetTechnologie
www.vensys.de
Vollumrichtersystem
VENSYSPitchsystem
Luftkühlung
magazin forschung
Theoretische Physik
Prof. Dr. Dr. Karsten Kruse
4 Neuer Sonderforschungsbereich SFB 1027
untersucht die Physik lebender Zellen
5 Selbstorganisation und Transport
Theoretische Physik
Prof. Dr. Christian Wagner
8 Adhäsion und Aggregation
Experimentalphysik
Prof. Dr. Albrecht Ott
9 Molekulare Kooperativität
Experimentalphysik
Univ.-Prof. Dr. Martin Dietrich
Dipl.- Kffr. Nadine Molter
12 Die Messung und Darstellung der Images
von Gesundheits-Dienstleistern
Betriebswirtschaftslehre, insb.
Management des Gesundheitswesens
Prof. Dr.-Ing. Michael Vielhaber
Dr. Christian Müller
20 Zukunftswerkstatt Mobilität – Plattform zur
Mobilitätsforschung an der UdS
Konstruktionsforschung
Intelligente Benutzerschnittstellen
Prof. Dr. Achim Langenbucher
Nichtgleichgewichts-Prozessen in biologischen Systemen – von Physikern, Biologen und Medizinern untersucht werden.
Namentlich gekennzeichnete Beiträge geben nicht unbedingt die Meinung des Herausgebrs wieder. Titelmotiv: Menschliche Zellen, wie sie im neuen Sonderforschungsbereich SFB 1027 – Physikalische Modellierung von
Anzeigenverwaltung und Druck: VMK – Verlag für Marketing und Kommunikation GmbH, Tel.: 06243/909-0, Fax: 06243/909-400, www.vmk-verlag.de ISSN: 0937-7301 Preis: EURO 2,50
Fotos: wenn nicht anders gekennzeichnet, eigenes Archiv der Autoren. Motiv S. 12: © arnd/photocase.com
Postfach 15 11 50, 66041 Saarbrücken, Tel.: 0681/302-2656, Fax:0681/302-4270, E-Mail: [email protected]. Erscheinungsdatum: Mai 2013
Präsidialbüro, Tel.: 0681/302-3886 Satz und Gestaltung: Maksimovic & Partners, Agentur für Werbung und Design GmbH Vertrieb: Präsidialbüro der Universität des Saarlandes,
Impressum /// Herausgeber: Vizepräsident für Forschung und Technologietransfer, Prof. Dr. Matthias Hannig, Universität des Saarlandes. Redaktion: Beate Wehrle,
Prof. Dr. Heiko Rieger
1/13
Dipl.-Phys. Marc Kannengießer
25 Maßgeschneiderte Sehqualität durch experimentelle
Grundlagenforschung
Experimentelle Ophthalmologie
Professor Dr. Margrit Grabas
Dr. Veit Damm
Wirtschafts- und Sozialgeschichte
Prof. Dr. Christian Boller
Dr. Jochen H. Kurz
Zerstörungsfreie Prüfung und
30 Historische Wirtschaftskrisen als
Lehrstücke – Investitionen in die Realwirtschaft
zahlen sich aus
34 Alternde Infrastruktur und wie man mit
zerstörungsfreier Prüfung diagnostisch im
Bauwesen helfen kann
Qualitätssicherung
Kurznachrichten
40 Aus der Forschung
Neuer Sonderforschungsbereich
SFB 1027 untersucht
die Physik lebender Zellen
Prof. Dr. Heiko Rieger
Theoretische Physik
Die Universität des Saarlandes hat seit dem 1.1.2013
einen neuen Sonderforschungsbereich, in dem ein
interdisziplinäres Konsortium von 24 Wissenschaftlern
aus Physik, Biologie und Medizin grundlegende physikalische Mechanismen in lebenden Zellen untersucht.
Unter dem Titel SFB 1027 »Physikalische Modellierung
von Nichtgleichgewichts-Prozessen in biologischen
Systemen« gehen die Forscher in stark fächerübergreifenden Projekten den Mechanismen von Zellbewegung,
intra-zellulären Transport-Prozessen, Bakterienhaftung
an Oberflächen und molekularer Kooperativität auf den
Grund. Zunächst fördert die Deutsche Forschungsgemeinschaft das interdisziplinäre Vorhaben über vier
Jahre mit 9,1 Millionen Euro.
Wie übersetzt man einen Vorgang in einer lebenden Zelle in mathematische
Gleichungen – und was kann man aus diesen Gleichungen für ähnliche
zellbiologische Prozesse lernen?
Diese Fragen interessieren Professor Heiko Rieger, den Sprecher des
Sonderforschungsbereiches SFB 1027.
Die zentrale Fragestellung des neuen Sonderforschungsbereiches SFB 1027 lautet:Wie kann man die Entstehung komplexer
Funktionen lebender Zellen durch das Zusammenwirken
vieler beteiligter Moleküle verstehen? Eine solche Funktion ist die Migration von Zellen, die sich hierbei anscheinend
zielgerichtet durch den Raum bewegen, zum Beispiel um als
Immunzellen Bakterien oder Tumorzellen zu vernichten.
Biologen und Mediziner haben im Laufe der letzten Jahrzehnte raffinierteste Techniken entwickelt, um die bei solchen
zellbiologischen Vorgängen beteiligten Proteine zu identifizieren und deren Struktur und Funktion zu erforschen. Das
Problem ist, dass die Migration von Zellen nirgendwo
in deren molekularer Struktur kodiert ist – letztere legt
lediglich die spezifischen chemischen Wechselwirkungen
und in einigen Fällen mechanische Wirkungen der einzelnen Proteine fest. Und genau auf diese Wechsel- und
mechanischen Wirkungen in einem System mit vielen
Teilchen kommt es an, will man komplexe Zellfunktionen
wie Migration verstehen. So haben Physiker mit Hilfe von
theoretischen Modellen gezeigt, dass Migration ein recht
allgemeines emergentes Phänomen aktiver Materie ist.
Nur wenige Proteinsorten, die in bestimmter Weise wechselwirken und mechanische Kräfte entfalten, reichen hierbei aus (z. B. Aktin-Monomere, molekulare Motoren, Nu-
kleatoren und ATP als Energie-Lieferant). Durch deren
Zusammenwirken in großer Anzahl entstehen neue makroskopische Eigenschaften, die man mit Methoden der
statistischen Physik studieren kann. Um also die zellbiologische Funktion zu verstehen, braucht man Informationen
über den physikalischen Mechanismus und über die Eigenschaften der beteiligten Proteine – das heißt, man braucht
eine intensive Zusammenarbeit von Physikern auf der einen
und Biologen und Medizinern auf der anderen Seite.
Diese Idee stand am Anfang des Sonderforschungsbereiches: Eine interdisziplinäre Forschungsinitiative von Physikern
und Lebenswissenschaftlern, die grundlegende physikalische
Mechanismen in lebenden Zellen untersucht. Der so entstandene Forschungsverbund an der UdS ist insofern einzigartig,
als dass an allen Forschungsprojekten sowohl Physiker als
auch Lebenswissenschaftler beteiligt sind: So ist garantiert,
dass die physikalische Forschung immer an einem konkreten
biologischen System orientiert bleibt, welches in einer beteiligten lebenswissenschaftlichen Arbeitsgruppe untersucht
wird, und dass die biologische und medizinische Forschung
immer die physikalischen Aspekte ihres untersuchten biologischen Systems im Auge behält.
Folglich ist die Entwicklung theoretischer Konzepte zum
Verständnis der durchgeführten Experimente ein zentraler
Die Projektleiter/innen des neuen Sonderforschungsbereiches SFB 1027, von links nach rechts: Dr. Ivan Bogeski, Dr. Reza Shaebani, Prof. Dr. Dr. Karsten Kruse,
Dr. Bin Qu, Prof. Dr. Matthias Hannig, Susanne Balzert, Dr. Franziska Lautenschläger, Prof. Dr. Karin Jacobs, Prof. Dr. Peter Lipp,
Prof. Dr. Jutta Engel, Prof. Dr. Ludger Santen, Dr. Barbara Niemeyer, Prof. Dr. Heiko Rieger, Prof. Dr. Ralf Seemann, Prof. Dr. Christian Wagner,
Prof. Dr. Markus Hoth, Prof. Dr. Albrecht Ott, Pascal Giehr, Prof. Dr. Volkhard Helms, Prof. Dr. Verena Wolf, Dr. Markus Bischoff.
Fokus des SFB, welcher schon im Titel durch den Begriff der
»physikalischen Modellierung« zum Ausdruck gebracht wird.
Physiker versuchen, die detaillierte Sichtweise eines Biologen auf molekulare Prozesse so weit zu abstrahieren und zu
einer ›gröberen‹ Beschreibung zu kommen, bis sie allgemein
gültige naturwissenschaftliche Prinzipien dahinter erkennen.
Die Entdeckung solcher Mechanismen in einem speziellen
System ist vermutlich auch auf ähnliche Abläufe in anderen
Zellen übertragbar, wodurch man wieder neue Erkenntnisse
gewinnt. Diese Erkenntnisse aus der Grundlagenforschung
könnten in der Zukunft wichtig sein, um Anwendungen in der
Medizin zu ermöglichen, die heute noch nicht möglich sind.
So besitzen die im SFB untersuchten biologischen Systeme
durchweg eine medizinische Relevanz: Immunzellen, Herzzellen, rote Blutzellen, staphylococcus aureus, DNA-Methylierung, A/B-Toxine und dentale Biofilme.
Alle im SFB untersuchten dynamischen Prozesse sind
fern vom thermodynamischen Gleichgewicht – was für biologische Prozesse, die beständig Energie konsumieren, fast
tautologisch ist. Aus physikalischer Perspektive sind NichtGleichgewichtsprozesse – im Vergleich mit dem thermodynamischen Gleichgewicht – nur unzureichend verstanden
und erfordern zu ihrer Erforschung die Entwicklung neuer
theoretisch-physikalischer Methoden. Diese im SFB zu entwickelnden Methoden werden dann auch auf andere biologische Systeme anwendbar sein.
In 17 Teilprojekten gehen 24 Wissenschaftler dem physikalischen Verständnis von biologischen Prozessen in diesem
Sonderforschungsbereich nach. Er ist in die drei Teilbereiche
»Selbstorganisation und Transport«, »Adhäsion an Membranen und Oberflächen« sowie »molekulare Kooperativität«
gegleidert, die auf den folgenden Seiten kurz vorgestellt werden.
Selbstorganisation und Transport
Theoretische Physik
Prof. Dr. Dr. Karsten Kruse
Theoretische Physik
7 4
3 5
Blickt man in das Innere einer Zelle, so stellt sich einem zunächst einmal ein verwirrendes Durcheinander vieler verschiedener Komponenten dar. Proteine und andere Moleküle tummeln sich auf engstem Raum und vollführen
einen Tanz, dem eine Funktion oder ein Sinn nur schwer
abzulesen sind. Geht man aber einen Schritt zurück, so
erkennt man supramolekulare Strukturen, die in scheinbar
zielgerichteter Art und Weise miteinander wechselwirken
und es der Zelle ermöglichen, zu wachsen, sich fortzubewegen und zu teilen. Welchen Regeln die molekularen
Spieler folgen, um funktionierende größere Einheiten zu
bilden, ist Gegenstand der Arbeiten von Prof. Dr. Markus
Hoth und Dr. Bin Qu (Biophysik), Dr. Konstantin
Doubrovinski, Prof. Dr. Dr. Karsten Kruse, Prof. Dr.
Heiko Rieger, Prof. Dr. Luger Santen und Dr. Reza
Shaebani (Theoretische Physik), Prof. Dr. Jutta Engel
(Biophysik), Prof. Dr. Peter Lipp (Molekularbiologie)
und Prof. Dr. Manfred Schmitt (Molekularbiologie) im
Projektbereich A – Selbstorganisation und Transport des
Sonderforschungsbereichs S fB 1027.
Konkret werden diese Fragen an Systemen untersucht,
die vom intrazellulären Transport und der Signalverarbeitung, über die Organisation von Zellen des Immunsystems bis zur koordinierten Aktivität im sich entwickelnden
Gehör reichen. Wie auch in den anderen Projektbereichen
ist der zugrundeliegende Leitgedanke, dass physikalische
Prinzipien beim Verständnis der Organisationsprozesse eine
wesentliche Rolle spielen werden. Diese Idee soll im Folgenden an zwei Beispielen etwas detaillierter vorgestellt werden.
Zelluläre Selbstorganisation
Kurz nachdem unser Körper eine Infektion ausgemacht
hat, werden spezielle weiße Blutkörperchen, sogenannte
T-Zellen, ausgesendet, um infizierten Zellen den Garaus
zu machen und damit den Organismus zu retten. Wie aber
finden diese T-Zellen ihre Ziele? Allgemein gilt, dass wenn
man keinen Anhaltspunkt hat, wo sich ein gesuchtes Objekt
befinden könnte, so streunt man am besten ziellos herum.
Betrachtet man die T-Zellen in einer Petrischale, so bewegen
Zellen beobachtet. Eine vielversprechende Idee ist, dass diese
Wellen das Zusammenwirken der verschiedenen Bestandteile
des Aktin-Netzwerks orchestrieren. Doch wie kommen diese
Wellen zustande? Die Analyse physikalischer Modelle der
Dynamik im Aktin-Zytoskelett zeigt, dass die Wellen spontan entstehen können, das heißt, keines äußeren Koordinators bedürfen. Ein möglicher Mechanismus beruht auf dem
Wechselspiel zwischen Aktin-Filamenten und Proteinen, die
neue Filamente erzeugen bzw. deren Wachstum fördern, siehe
Abb. 1: Bewegung von menschlichen T-Zellen. Die farbigen Punkte markieren die Aufenthaltsorte der T-Zellen zu verschiedenen Zeitpunkten.
sie sich tatsächlich ungeordnet. Allerdings gibt es verschiedene
Arten, sich ungeordnet zu bewegen. Z. B. kann man nach
jedem Schritt seine Richtung wechseln oder aber diese mit
gewisser Wahrscheinlichkeit beibehalten. In der Tat scheint
diese sogenannte »persistente« Zufallsbewegung für die
Suche nach einem Ziel unter vielen Umständen optimal zu
sein, d. h. die Zeit, um ein Objekt zu finden, ist geringer als
für andere Zufallsbewegungen. Experimente an humanen
T-Zellen deuten darauf hin, dass diese der Strategie einer
persistenten Zufallsbewegung folgen.
Wie aber erzeugen die Zellen diese Art der Zufallsbewegung? Auf molekularer Ebene wird die Zellbewegung durch
das Aktin-Zytoskelett getrieben. Dieses ist ein Netzwerk fadenartiger Polymere, der Aktin-Filamente, die mit einer Vielzahl
anderer Proteine wechselwirken. Die für die Bewegung
nötigen Kräfte und Spannungen erzeugt das Proteinnetzwerk über verschiedene Mechanismen. Zum einen durch die
Polymerisation von Aktin-Filamenten, zum anderen durch die
Wirkung molekularer Motoren, welche chemische Energie in
mechanische Arbeit umwandeln können und dadurch AktinFilamente gegeneinander verschieben. Erst wenn diese Prozesse auf zellulären Skalen koordiniert werden, kann die Zelle
dadurch auf einer Oberfläche kriechen: die vordere Kante
der Zelle wird durch Aktin-Polymerisierung vorgetrieben,
die Motoren ziehen dann das entstandene Aktin-Netzwerk
zusammen und ziehen so den Zellkörper mit.
Verschiedene Gruppen haben in den letzten Jahren spontane Polymerisierungswellen im Aktin-Zytoskelett lebender
Abbildung 2. Eine Reihe dieser Nukleatoren genannten Moleküle sind nur dann aktiv, wenn sie an die Zellmembran gebunden sind. Dort sorgen sie für die Bildung neuer Filamente.
Im Gegenzug inaktivieren Filamente die Nukleatoren, indem
sie diese von der Membran ablösen. Hat sich spontan durch
Fluktuationen eine Front der Nukleatoren mit nachfolgenden Filamenten gebildet, so kann sich eine stabile Welle entwickeln, da die durch die Filamente abgelösten Nukleatoren
bevorzugt vor der Front wieder an die Membran binden und
aktiviert werden. Auf der anderen Seite verhindern die vorhandenen Filamente ihre Aktivierung. Auf diese Weise wird
die Front vorangetrieben.
Im Rahmen des SFBs werden diese Prozesse weiter untersucht. Insbesondere stellt sich die Frage, was für Bewegungsmuster diese Wellen erzeugen können. Es ist zu erwarten,
dass die Wellenform und damit das Bewegungsmuster von
den Systemparametern also beispielsweise der Polymerisierungsrate oder der Anzahl der Nukleatoren abhängt. Durch
Regelung dieser globalen Parameter könnte die Zelle dann
ihr Verhalten steuern und insbesondere ihre Suchstrategie
äußeren Bedingungen anpassen.
Zelluläre Signalübertragung
Auch wenn eine Zelle sich selbst organisiert, so muss sie
doch auf äußere Signale reagieren können. Oft sind diese
Signale nur von kurzer Dauer und räumlich lokalisert. Wie
kann die Zelle auf solche Signale reagieren, wie kann sie echte
Signale von zufälligen Fluktuationen unterscheiden?
Abb. 2: Schematische Darstellung molekularer Prozesse, die zu zellulären
(4)
Polymerisationswellen im Aktin-Zytoskelett führen können:
Aktin-Filamente depolymerisieren.
(5, 6) »Laufbanddynamik« der Aktin-Filamente: in diesem Zustand wachsen
(1)
Nukleatoren binden an die Membran und werden dadurch aktiviert.
sie an einem Ende und schrumpfen am anderen. Durch das Wachstum
(2)
Nukleatoren erzeugen neue Aktin-Filamente.
können sie die Membran mittels der Kraft F ausstülpen.
(3)
Aktin-Filamente lösen die Nukleatoren von der Membran und
Theoretische Physik
inaktivieren sie dadurch.
7 6
3 7
Eine mögliche Antwort auf diese Frage liefern Eigenschaften der Proteinkinase C (PKC). Dieses Molekül integriert
zwei verschiedene Signalpfade. Zum einen muss es an Calcium-Ionen binden. Calcium ist ein universeller sekundärer
Botenstoff, das heißt, viele externe Signale werden von der
Zelle zunächst in ein Calcium-Signal umgewandelt und dann
weiterverarbeitet. Zum anderen muss die PKC an ein Membranmolekül binden, welches ebenfalls als Reaktion auf ein
externes Signal erzeugt wird. Dadurch, dass beide Moleküle
vorhanden sein müssen, um das Signal über die PKC weiterzuleiten, wird die Wahrscheinlichkeit, Fluktuationen als Signale
zu interpretieren, deutlich verringert, denn gleichzeitig auftretende Fluktuationen in zwei verschiedenen Signalketten
sind sehr unwahrscheinlich.
Um ein räumliche lokalisiertes Signal zu detektieren, darf
dieses aber auch nicht zu lange andauern. Durch die Diffusion werden nämlich räumliche Heterogenitäten ausgeglichen. Andererseits muss die PKC für eine genügend lange Zeit
»angeschaltet« bleiben, um die nachfolgende Signalkaskade
in Kraft zu setzen. Wie kann man diese beiden widersprüchlichen Anforderungen – kurze Signalzeit, lange Aktivität von
PKC – gemeinsam erfüllen? Hier kommt eine Beobachtung
ins Spiel, die im Rahmen des SFBs weiter untersucht werden
soll: Die PKC kann länger an die Membran gebunden und
damit aktiv bleiben als das Calciumsignal andauert, siehe
Abbildung 3. Ein einzelnes PKC-Molekül kann dieses allerdings nicht. Erst, wenn mehrere PKC-Moleküle zusammenwirken, ist dieses Phänomen zu beobachten. Dieses Verhalten
kann durch verschiedene Mechanismen erklärt werden. Die
dem SFB-Projekt zugrundeliegende Hypothese ist, dass einige
PKC-Moleküle einen Komplex bilden, in dem sich die Moleküle gegenseitig im aktiven Zustand stabilisieren.
Diese Hypothese ist in ein physikalisches Modell implementiert worden. Simulationen dieses Modells haben
gezeigt,dass die Komplexbildung tatsächlich verschiedene
an zellulärer PKC gemachte experimentelle Beobachtungen
erklären kann. In einem zweiten Schritt werden jetzt Experimente durchgeführt, die die Möglichkeit einer Komplexbildung durch PKC untersuchen. Dazu werden im Rahmen des
SFB 1027 fluoreszenzmikroskopische Methoden eingesetzt.
Etwa eine Hälfte der PKC-Moleküle wird mit einem gelb fluoreszierenden Molekül markiert, die andere Hälfte mit einem
grün fluoreszierenden. Bestrahlt man die Zelle mit einem
geeigneten Laser, so werden nur die gelb fluoreszierenden
Moleküle angeregt. Sind diese isoliert, leuchtet die Zelle an
den entsprechenden Stellen gelb. Befindet sich allerdings ein
grün fluoreszierendes Molekül sehr dicht in der Nähe – so
dicht, wie es nur vorkommt, wenn die beiden Moleküle ein
Paar bilden – , dann schnappt es sich das Licht vom gelben und
leuchtet selbst, während die gelbe Fluoreszenz verschwindet.
Die Zelle leuchtet jetzt an diesen Stellen grün. Erste Ergebnisse von Experimenten, die sich dieser Methode bedienen,
unterstützen die Hypothese, dass die PKC Moleküle tatsächlich einen Komplex bilden.
a)
b)
c)
Abb. 3: Fluoreszenzmikroskopische Aufnahme von PKC-Clustern an der Zellmembran.
a) Zeitliche Entwicklung des Fluoreszenzsignals
in den in (b1) markierten Punkten.
b) Momentaufnahmen der Fluorszenzintensität in einem Membranbereich.
c)
Raum-Zeit-Darstellung der Fluoreszenzintensität entlang der
gestrichelten Linie in (b4). Warme Farben entsprechen hohen
Fluoreszenzintensitäten und damit einer großen PKC-Dichte, kalte
Farben geringen Dichten. Ein lokales Calciumsignal dauert maximal
eine Sekunde, lokal hohe PKC-Konzentrationen können etwa 10-mal
länger an der Membran gemessen werden.
Die beiden Beispiele zeigen, wie lokale physikalische
Wechselwirkungen zwischen Molekülen zu supramolekularen Strukturen führen können, die lebenswichtige zelluläre
Prozesse ermöglichen, und wie physikalische Methoden eingesetzt werden, um diese Prozesse zu untersuchen.
Adhäsion und Aggregation
Prof. Dr. Christian Wagner
Experimentalphysik
Der Projektbereich B behandelt vor allem die Adhäsion Zahnoberflächen. In einem weiteren Projekt unter der Leivon Proteinen und Zellen an präparierten Oberflächen und tung von Prof. Ralf Seemann (Experimentalphysik) und
Membranen. Insbesondere von Interesse sind dabei die Fra- Dr. Jean Baptiste Fleury (Experimentalphysik) wird zum
gestellungen: Wie werden die adhäsiven Eigenschaften durch einen in mikrofluidischen Modellexperimenten das Fusionsdie Wechselwirkung zwischen mehreren – gegebenenfalls un- verhalten von Lipidmembranen als Modell für die Fusion von
terschiedlichen – Proteinen bzw. Zellen beeinflusst? In drei Vesikeln bei der Übertragung von Neurotransmittern untervon insgesamt fünf Projekten wird unter Leitung von Prof. sucht. Im fünften Projekt wird schließlich das AggregationsKarin Jacobs (Experimentalphysik), Prof. Mathias verhalten von roten Blutzellen in physiologischer Strömung
Hermann (Infektionsmedizin), Prof. Ludger Santen studiert, was hier exemplarisch näher dargestellt werden soll.
Es gibt mindestens drei Hauptklassen der Aggregation
(Theoretische Physik) und Prof. Matthias Hannig (Klinik für Zahnerhaltung) die Bildung von Biofilmen studiert, von roten Blutzellen. Betrachtet man Blut von gesunden
das heißt, die Adhäsion und Aggregation von Biomolekü- Spendern unter dem Mikroskop, lassen sich immer Aggregate
len und Zellen auf synthetischen und organischen Ober- roter Blutzellen beobachten, die aufgrund ihrer Ähnlichkeit
flächen. Dabei wird ausgehend von möglichst einfachen mit Geldrollen Rouleaux genannt werden (Abb. 4a). Dieser
Systemen die Komplexität bezüglich der Organisation der Aggregationsprozess ist reversibel und in der Blutströmung
räumlichen Anordnung und der Wechselwirkung zwischen können diese Rouleaux gegebenenfalls aufgebrochen werden,
den beteiligten Komponenten nach und nach erhöht. Was so dass die roten Blutzellen Kapillaren durchströmen könsind die grundlegenden physikalischen Prinzipien, die die nen, die kleiner sind als der Durchmesser der Zellen. AußerStrukturen und Funktionen dieser Biofilme bestimmen, dem aggregieren rote Blutzellen auch bei der Blutgerinnung.
lautet die zentrale Frage. Um diese zu beantworten wird Schließlich ist es bekannt, dass bei Krankheiten wie Malaria
die Bildung von Biofilmen sowohl theoretisch als auch ex- oder Sichelzellanämie die roten Blutzellen zur Verklumpung
perimentell untersucht. Beispiele sind Biofilme von Sta- neigen. Da die roten Blutzellen ca. 45 vol % des Blutes ausmaphylokokken Aureus oder die initiale Biofilmbildung auf chen, ist eine genaue Kenntnis ihres Aggregationsverhaltens
für ein quantitatives Verständnis des Strömungs- und Gerinnungsverhalten von Blut unabdingbar, und im Rahmen des
SFB-Projekts sollen die ersten beiden genannten Fälle der
Aggregation untersucht werden.
Die physikalischen Mechanismen, die der Bildung von
Rouleaux zugrunde liegen, werden in der Literatur kontrovers diskutiert. Ein möglicher Mechanismus beruht auf
Mitt un
Mi
u se
ere
rer
er Pro
Proj
Pr
ojek
oje
ekte
kterf
rfah
ahru
ru
ung
ng
Verarmungskräften, das heißt, dass es zu einer Verarmung
geli
ge
ling
ngtt ess IIhn
ng
hn
nen
en,, be
beliebi
big viele
(engl. depletion) von Makromolekülen zwischen den roten
Cllie
ient
ntt-S
-Sys
Sys
yste
tem
te
me
m
e mit
it e
ein
iin
nem
m Kli
lick
ck
Blutzellen kommt (Abb. 4b). Die Makromoleküle werden näauszzur
au
urol
olle
ol
le
en o
od
de
der
err an Ve
Verä
rä
änd
n eherungsweise als Kugeln mit Durchmesser d betrachtet. Aus
ru
ung
gen
n anzzupas
up
passen!
geometrischen Gründen können sie mit ihrem Schwerpunkt
nicht näher an die Zelloberfläche als ihr halber Durchmesser
Miit un
M
unse
s re
en Lö
ösu
ungen zu
urr Des
esk
kkommen. Wenn nun zwei Zellen in Kontakt kommen, überto
op
p-- und Anw
wen
endun
ng
gsv
svir
i tua
alappen sich diese nicht erreichbaren Bereiche und es wird
l siier
li
erun
ung
g können
n Sie mitt IIhren
en
n
effektiv mehr Volumen für die Makromoleküle frei. Dieser
Programm
Pr
mm
men
n und Dat
a en arrb
bei
ei-rein entropische Effekt führt zu einem osmotischen Druck,
te
en wo
o und
d wan
ann Si
Sie
ew
wo
oll
lle
en
e
n.
der die Zellen aneinanderpresst. Der Verarmungseffekt ist in
S hn
Sc
hnel
elll un
el
und si
sich
c er.
err. Zu
um Be
Beis
isspi
p el
el
kollodialen Suspensionen intensiv studiert worden und dort
auf de
au
dem
m iPad
iiP
Pad
d von
von
n zzuh
uh
hau
ausse
e ode
der
inzwischen gut verstanden.
unte
un
te
erw
rweg
we
eg
gs im
i H
Hot
o ell.
ot
Zur Überprüfung des Modells und um quantitative Daten bezüglich der auftretenden Kräfte zu erhalten, wurde
die Wechselwirkung zwischen zwei roten Blutzellen für verhartec
ecch isst Ih
hr komp
pet
eten
en
nte
er CITRIX
Xschiedene Makromolekülkonzentrationen mit einem atomic
un
nd vvm
mwa
w re-Pa
artner vor
or O
Ort
rt.
force microscope (AFM) bestimmt (Abb. 4c). Die gewonnenen
Daten ließen sich gut mit dem Verarmungsmodell erklären.
In einem weiteren Schritt wurde in einer Mikrofluidik untersucht, ob die so gebildeten Aggregate auch in Mikrokapillaren
unter physiologischen Strömungsbedingungen zu beobachten
wären. Dies war in der Tat der Fall und konnte inzwischen
Lösungen für Rechenzentren
auch durch numerische Simulationen bestätigt werden.
www.hartech.de
b)
a)
Abb. 4: a) Fotografie eines Rouleau aus sieben roten Blutzellen
c)
c)
b) Skizze des Verarmungsmodells: Der weiße Bereich um die roten
Kraftmessung mit einem AFM zwischen zwei Blutzellen in einer
Lösung aus Makromolekülen (dextran, Mw 150.000 amu).
Blutzellen ist bezogen auf ihren Schwerpunkt für die Polymere nicht
erreichbar. Wenn zwei große Blutzellen nahe beieinander liegen, überlappen die weißen Bereiche, und den Polymeren steht effektiv mehr
freies Volumen zur Verfügung.
Die Blutgerinnung oder auch Koagulation ist ein komplexer Prozess, der viele kollektive Komponenten involviert.
Grob gesprochen startet der Prozess mit der Aktivierung der
Blutplättchen, die wiederum Botenstoffe aussenden, die die
Koagulationskaskade starten. Die roten Blutzellen spielen
in dieser Kaskade keine zentrale Rolle, aber bei der Frage
nach den (strömungs-)mechanischen Eigenschaften eines
Gerinnsels kommt den roten Blutzellen allein wegen ihres
großen Volumenanteils im Blut eine besondere Bedeutung
zu. In der Regel geht man davon aus, dass rote Blutzellen
nur im Fibrinnetzwerk gefangen werden, aber jüngere
Studien haben gezeigt, dass rote Blutzellen nach Aktivierung
durch die Plättchen anfangen, aktiv miteinander zu verkleben
(ref 2). Mit den oben beschriebenen Techniken sollen auch für
den Fall der Blutplättchen-induzierten Aggregation experimentelle und theoretische Modelle entwickelt werden, die in
Zukunft eine exaktere Beschreibung der Thrombusbildung
erlauben und gegebenenfalls auch bei der Patientenbehandlung zum Beispiel bei der Bewertung von Aneurysmen bzgl.
ihres Risikos einer Thrombose in der Blutströmung eingesetzt
werden können.
Molekulare Kooperativität
Experimentalphysik
Prof. Dr. Albrecht Ott
Experimentalphysik
7 8
3 9
Im Teilbereich C werden Phänomene molekularer Kooperativität im Kontext verschiedener zellbiologischer Funktionen untersucht. Unter dem Begriff der ›molekularen Kooperativität‹ versteht man dabei, dass molekulare Komponenten
durch ihre Interaktionen neue funktionelle Eigenschaften des
Systems generieren, die nicht am einzelnen Element selbst
direkt ablesbar sind Ein klassisches Beispiel für Kooperativität in der Physik wie im täglichen Leben sind Phasenübergänge wie zum Beispiel der Übergang von dem festen in den
flüssigen Zustand. Es ist wohlbekannt, dass eine sehr kleine
Temperaturerniedrigung von weit weniger als 1 °C ausreichen
kann, um Wasser vollständig von einer Flüssigkeit in einen
Eisblock zu verwandeln. Die makroskopische Eigenschaft
des Ganzen (fest oder flüssig) ist aber von den Eigenschaften der einzelnen Wasserteilchen, den H 2 O Molekülen, nicht
ablesbar, denn diese Moleküle verändern ihre Eigenschaften
in dem engen Temperaturbereich des Übergangs nicht. Es ist
vielmehr die Kopplung der zahlreichen Moleküle durch mo-
lekulare Kräfte, die einen abrupten Übergang hervorbringt.
Wasser ist nur ein Beispiel, denn alle Stoffe verhalten sich im
Übergang gleich.
Obwohl ihre chemisch-physikalischen Eigenschaften
ganz verschieden sein können, bleibt die Natur des Phasenübergangs davon gänzlich unberührt. Entscheidende Elemente der Theorie der Phasenübergänge wurden um die 1940er
Jahre entwickelt, aber erst vor 30 Jahren wurde mit der Renomierungsgruppentheorie endlich ein konsistenter Rahmen
sogenannter kritischer Phänomene geschaffen.
Auch in der Biologie spielt molekulare Kooperativität
eine große Rolle. So kann man zwar die spezifische Bindung
von zwei Biomolekülen im Detail beschreiben, aber wie die
zahllosen Moleküle und Bausteine der Zelle bei der Zellteilung selbstorganisiert zusammenarbeiten, ist weit von
dem entfernt, was wir messen oder gar verstehen können.
Es ist von zentraler Bedeutung zu verstehen, wie Zellen ihre
Erbsubstanz fehlerlos kopieren und nutzen oder wie Prote-
ine oder dynamische zelluläre Strukturen (Membrantransport) über einen längeren Zeitraum in einem bestimmten
(z. B. aktivierten) Zustand gehalten werden. Im Unterschied
zum klassischen Phasenübergang einfacher Moleküle wird
häufig die Funktionalität großer biologischer Moleküle,
deren funktionelle und räumliche Zustände durch Prozesse wie Aufschmelzen (DNA), Entfalten (Proteine) oder
Entwinden (DNA und Proteine) verändert werden, von einer
kooperativen Eigendynamik bestimmt. Die Projekte im Bereich C haben das gemeinsame Ziel zu einem tieferen molekularen Verständnis einzelner kooperativer Phänomene zu
kommen.
Im Projekt von Professor Ott konnte bereits gezeigt werden, dass die spezifische Paarung von DNA Molekülen von
der Präsenz anderer DNA Moleküle abhängen kann, obwohl
dies gemäß der Struktur nicht zu erwarten wäre. Weniger
stark bindende, andere DNA Moleküle beeinflussen die Kooperativität des DNA Doppelstrangs, so dass dieser seinen
entsprechenden Bindungspartner trotz vieler umgebender,
konkurrierender Moleküle fehlerlos erkennt. In weiteren Experimenten wird die kooperative Bindung von Proteinen an
bestimmte Kontrollabschnitte der DNA genauer untersucht.
Transkriptionsfaktoren im lebenden System? Wie werden
DNA-Methylierungsmuster einzelner Moleküle erkannt und
auf die DNA in Tochterzellen kopiert? Welche Enzyme kooperieren, um Methylierungsmuster in der DNA neu zu setzen
und zu erhalten? Die Versuche hierzu werden in Bakterien
und in der Maus durchgeführt.
Durch interdisziplinäre Ansätze werden dabei neue Einsichten in die molekulare Welt kooperativer, epigenetischer Zellprogramme gewonnen.
Ein anderer Problemkomplex betrifft Zellen des Immunsystems, T-Zellen, die zu den weißen Blutkörperchen
gehören. Bei der Aktivierung dieser Zellen werden Kalziumionen mobilisiert. Ein anderes Element der Aktivierung
ist die Produktion von oxidierenden Molekülen wie beispielsweise H 2 O 2 zum einen durch die T Zellen selber, zum anderen durch benachbarte Phagozyten (Fresszellen). Man beobachtet, dass der oxidative Stress sowohl zu einer Erhöhung
als auch zu einer Erniedrigung der Kalziumkonzentration
führen kann, u. a. durch Aktivierung oder Inhibition bestimmter Ionenkanäle. Hier (Gruppe B. Niemeyer und I. Bogeski)
soll die Kalziumsignalkette besser verstanden werden und der
quantitative Zusammenhang zwischen oxidativem Stress und
Abb 5: Schema eines epigenetischen Transkriptionsschalters einer Bakterie
(E. coli). Im nicht methylierten Fall besetzt der Transkriptionsfaktor L R P
die D N A an den Stellen 1, 2, 3 und verhindert Transkription. Methylierung
verhindert die Bindung von LRP in kooperativer Weise und bewirkt, dass
das Gen GFP durch Enzyme abgelesen werden kann.
Diese speziellen Proteine, sogenannte Transkriptionsfaktoren,
binden an definierte Schaltstellen der DNA, um die Information sinnvoller Genabschnitte abzulesen. Diese Bindung
kann durch epigenetische Veränderungen (DNA-Methylierung) einzelner DNA-Bausteine moduliert werden (Abb. 5).
Epigenetischen Veränderungen verändern nicht die Abfolge
(Sequenz) der DNA-Bausteine, sie verändern aber die Erkennung und das Bindungsverhalten von Proteinen an die DNA.
Diese Form der zusätzlichen epigenetischen Steuerung
der Geninformation ist für die Zelle essentiell. Fehler in der
epigenetischen Feinregulierung führen zu Fehlentwicklungen
von Zellen und komplexen Erkrankungen wie z. B. Krebs.
Mit Hilfe genauester Methoden kann man die An- und Abwesenheit epigenetischer Markierungen auf der DNA an
Einzelmolekülen feststellen. Komplementär zu den biophysikalischen in vitro Analysen der AG Ott (Biophysik) werden
in zwei weiteren Teilprojekten durch die AGs Walter, Wolf
und Helms gemeinsam Fragen zur biologischen Bedeutung
der DNA-Methylierung bearbeitet: Wie beeinflusst die DNA
Methylierung die kooperative Erkennung von DNAdurch
Kalziumsignalen mathematisch modelliert werden (Gruppe
H. Rieger). Die Frage dabei ist, wie die molekularen Elemente letztendlich die beobachteten, definierten Kalziumsignalmuster erzeugen.
Abb 6: Hypothetisches Modell für die durch SNARE stimulierte Membranfusion.
SNAREs auf dem Vesikel (blau) binden mit SNAREs auf der Membran
(rot) und bringen das Vesikel zur Hemifusion. Kalziumabhängige weitere
Schritte der Fusion führen zur vollständigen Membranfusion und Öffnung
des Vesikels.
Experimentalphysik
Die Ca ++ -abhängige Freisetzung von Botenstoffen ist das Elementarereignis interneuronaler Kommunikation und beruht
auf der Verschmelzung intrazellulärer, membranumschlossener Speicherelemente (Vesikel) mit der äußeren Membran der Zelle. Präzision, Geschwindigkeit und Modulation
dieses Prozesses, der auch als Exozytose bezeichnet wird,
sind wesentliche funktionelle Parameter bei der Informationsverarbeitung im zentralen Nervensystem. Wie wir heute
wissen, bilden sich bei der Ausschüttung des Botenstoffes
Proteinkomplexe aus sogenannten SNARE-Proteinen zwischen den fusionierenden Membranen und vermitteln den
Verschmelzungsprozess der beiden Doppelschichten aus
Lipiden (Abb. 6). Es wird vermutet, dass die membranver-
7 10
3 11
bindenden Interaktionen der SNARE-Proteine einen unmittelbaren Kontakt zwischen Vesikel und Zellmembran etablieren. In gegenwärtigen Arbeiten der Gruppen Mohrmann
und Bruns werden entscheidende Komponenten des
SNARE-Proteinkomplexes experimentell modifiziert, um im
Zusammenspiel mit Computersimulation und theoretischer
Modellierung (Gruppe R. Böckmann) ein genaueres Verständnis der molekularen Interaktionen bei der schnellen
Membranfusion zu erreichen.
Die Messung und Darstellung
der Images von
Gesundheits-Dienstleistern
— Eine Untersuchung am Beispiel saarländischer Krankenhäuser
Prof. Dr. Martin Dietrich
Dipl.-Kffr. Nadine Molter
Betriebswirtschaftslehre, insb. Management des Gesundheitswesens
Die Bedeutung von
Images für eine bedarfsgerechte
Versorgungsentwicklung
Eine bedarfsgerechte Weiterentwicklung der Versorgungsstrukturen unseres
Gesundheitswesens hängt im Wesentlichen davon ab, ob neue Versorgungsformen von den Nutzern angenommen werden. Eine Möglichkeit zur Erhöhung
der Akzeptanz stellt das Konzept des Image-Transfers etablierter Leistungserbringer auf neue Versorgungsformen dar. Um dieses Konzept anwenden
zu können, muss getestet werden, ob messbare und darstellbare Images von
Gesundheits-Dienstleistern überhaupt vorliegen. Dieser Beitrag stellt die
Anwendung der Multidimensionalen Skalierung zur Messung und Darstellung
von Krankenhaus-Images und die Ergebnisse einer Anwendung auf eine Auswahl von saarländischen Krankenhäusern vor.
Die Notwendigkeit der Versorgungsentwicklung im
Gesundheitswesen
Die medizinische Versorgung in Deutschland ist auf einem sehr hohen Niveau: Wer in Deutschland krank wird, kann
sich darauf verlassen, dass er medizinisch gut versorgt wird.
Doch die hohe Versorgungsqualität hat seinen Preis. Im Jahr
2010 wurden in Deutschland 287 Mrd. Euro für Gesundheit
ausgegeben, das sind pro Einwohner 3.510 Euro (OECD 2012a,
b) oder 11,8 % der gesamten Wirtschaftsleistung Deutschlands (Bruttoinlandsprodukt). Im europäischen Vergleich
belaufen sich Deutschlands Gesundheitsausgaben auf einem
sehr hohen Niveau, nur Frankreich und die Niederlande geben einen höheren Anteil ihrer gesamten Wirtschaftsleistung
für Gesundheit aus und die Ausgaben für pharmazeutische
Produkte in Deutschland sind die zweithöchsten im europäischen Vergleich. Bei einigen Gesundheitsergebnis-Indikatoren weist Deutschland allerdings nur ein durchschnittliches
Niveau auf (OECD 2012a). Deshalb wird die Wirtschaftlichkeit
des deutschen Gesundheitswesens in der Öffentlichkeit vielfach unter dem Aspekt seiner hohen Kosten und der Finanzierungsproblematik diskutiert. Der europäische Vergleich
gibt Anlass zur Sorge, dass die Ergebnisse der medizinischen
Versorgung gemessen am Aufwand, der dafür betrieben wird,
deutlich besser sein müssten. Dieses Problem wird sich durch
die demografische Entwicklung weiter zu einer großen gesellschaftlichen Herausforderung entwickeln.
Ein wesentliches Problem im Verhältnis der medizinischen Ergebnissen der Versorgung und den Kosten besteht
darin, dass sich die Wirksamkeit der medizinischen Maßnahmen und des medizinischen Fortschritts in der gegenwärtigen Organisationsform der Versorgung nicht voll entfalten
können. Die Organisation der medizinischen Versorgung
ist hoch fragmentiert und sektoral untergliedert, das heißt,
dass beispielsweise die ambulante medizinische Versorgung
finanzierungstechnisch und organisatorisch grundsätzlich von
anderen Versorgungsformen wie der stationären Krankenhausversorgung, der Rehabilitation oder der Pflege getrennt
ist (Simon, 2010). Zudem bilden sich immer mehr hoch spezialisierte Berufsbilder im Gesundheitswesen heraus, was
zwar einerseits zu den in den Wirtschaftswissenschaften bekannten nützlichen Spezialisierungsvorteilen führt, die aber
andererseits durch die dadurch gleichzeitig entstehenden
Koordinations- und Schnittstellenprobleme konterkariert
und teilweise egalisiert werden. Krankheitsbilder, die sich
Management des Gesundheitswesens
7 12
3 13
aufgrund der demografischen Entwicklung und des Lebenswandels in unserer industrialisierten Gesellschaft herausbilden,
bedürfen aber immer mehr organisationsübergreifender
Behandlungskonzepte (Dietrich & Molter, 2013). Somit
öffnet sich immer mehr eine Schere zwischen den Angebotsstrukturen des Gesundheitswesens in Form einer hoch
fragmentierten Versorgungsorganisation auf der einen Seite
und dem Bedarf an einheitlichen und zusammenhängenden
Behandlungskonzepten über viele einzelne Instanzen hinweg
auf der anderen Seite.
Die Grundstrukturen der medizinischen Versorgung, wie
sie zu Zeiten der Entwicklung unseres modernen Gesundheitssystems gelegt wurden, waren und sind zwar geeignet
und wirksam, um die damals häufigsten krankheitsbedingten
Todesursachen wie akute Infektionskrankheiten zu bekämpfen. Die häufigsten krankheitsbedingten Todesursachen, die
heute den dringendsten Handlungsbedarf im Gesundheitswesen bestimmen, haben sich seither aber gewandelt und sind
inzwischen chronische Krankheitsbilder wie Neubildungen
und Herz-Kreislauferkrankungen (Statistisches Bundesamt
2013). Die Anpassung der Organisation unseres Gesundheitssystems mit seinen sektoralen Versorgungsstrukturen
an diese neuen Behandlungsbedingungen stellt eine große
Herausforderung dar. Deshalb ist das Gesundheitswesen mit
seinen Organisationen und Unternehmen seit geraumer Zeit
einem hohen Veränderungsdruck ausgesetzt.
Eine Weiterentwicklung der herkömmlichen Versorgungsstrukturen wird mit neuen Versorgungskonzepten
versucht, mit denen die Kooperation der Leistungserbringer
gefördert werden soll. Das gesetzliche Regelwerk (fünftes
Sozialgesetzbuch, SGB V) sieht dazu Möglichkeiten vor, wie
unterschiedliche Leistungserbringer wie Krankenhäuser und
niedergelassene Ärzte besser zusammenarbeiten können.
Diese neuen Versorgungsformen sind durch eine »dreiseitige
Freiwilligkeit« gekennzeichnet (Dietrich & Molter, 2012).
Erstens können sich Leistungsanbieter wie z. B. Krankenhäuser, niedergelassene Ärzte und/oder Rehabilitations- und Pflegeeinrichtungen freiwillig zu solchen Organisationsformen
zusammenschließen; zweitens sind Krankenversicherungen
nicht gezwungen (außer bei der hausarztzentrierten Versorgung), mit Leistungsanbietern entsprechende Verträge über
neue Versorgungsorganisationen abzuschließen (sog. »selektives Kontrahieren«); und drittens können sich Versicherte
freiwillig bei solchen medizinischen Versorgungskonzepten
einschreiben. Diese sogenannten integrierten Versorgungskonzepte versprechen, wesentliche Organisationsprobleme
unseres Gesundheitswesens lösen zu können. Nur bedarf es
ihrer Umsetzung durch Leistungserbringer und Krankenkassen sowie ihrer Akzeptanz auf Seiten der Versicherten,
damit sich diese neuen Organisationsformen durchsetzen und
als reguläre Versorgungsform etablieren können. Die Realisierung alternativer Versorgungsorganisationen und
- konzepte geschieht nicht von alleine.
Akzeptanz neuer Versorgungsformen
Besonders wichtig für eine erfolgreiche Umstellung der
Organisationsstrukturen des Gesundheitswesens ist die
Akzeptanz der neuen Versorgungsformen durch die Versicherten. Nur wenn hinreichend viele Versicherten sich dazu
entschließen, an neuen Versorgungskonzepten teilzunehmen,
lassen sich genügend Erfahrungswerte sammeln, mit denen
sich die Wirksamkeit neuer Versorgungsformen bewerten und
das Gesundheitssystem zielführend weiter entwickeln lässt.
Neue Versorgungsformen und integrierte Versorgungskonzepte stellen für die Versicherten aber hoch komplexe und erläuterungsbedürftige Dienstleistungsinnovationen dar, deren
individuelle Nützlichkeit sich oft nicht unmittelbar wahrnehmen und erschließen lassen. Für sie stellt sich die Frage, wie
die Idee der Leistungsvernetzung von Anbietern überhaupt
wahrnehmbar und vermittelbar ist. Dies trifft vor allem für
sogenannte populationsorientierte integrierte Versorgungsformen zu, bei denen ein wesentlicher Aspekt der Gesundheitsversorgung die Prävention und Leistungskoordination
der integrierten Anbieter und die daraus resultierenden
langfristigen Gesundheitserfolge darstellen. Die Nützlichkeit
präventiver und unter verschiedenen Leistungserbringern
abgestimmten Versorgungsangeboten ist für die einzelnen
Versicherten zunächst nicht unmittelbar wahrnehmbar, weil
deren Effekte erst zu einem viel späteren Zeitpunkt wirksam
werden. Aus der Innovationsforschung ist aber bekannt, dass
eben diese Wahrnehmbarkeit von relativen Vorteilen Faktoren sind, die die Akzeptanz von Innovationen ganz wesentlich
beeinflussen (Rogers 2003).
Die geringe Akzeptanz der neuen Versorgungsformen
durch die Versicherten ist ein gegenwärtig unterschätztes
Phänomen des Patienten- und Versichertenverhaltens im
Gesundheitswesen. Ohne hinreichende Akzeptanz neuer
Versorgungsformen verbreiten sich neue Versorgungsformen nicht schnell genug und die notwendige Weiterentwicklung des Gesundheitswesens wird gehemmt. Wie dargestellt
hilft nur mehr vom Gleichen in der Versorgungsorganisation
nicht weiter sondern es braucht andere Versorgungsstrukturen. Weitere Kostensteigerungen und nicht entsprechende
gesundheitliche Outcome-Entwicklungen sind die drohende
Folge, die im europäischen Vergleich mittelmäßige Effizienz
des deutschen Gesundheitswesens droht weiter zu erodieren.
Akzeptanzförderung durch Image-Transfer
Was hat damit die Wahrnehmung von Krankenhäusern
in der Bevölkerung und die Messung und Darstellung von
Krankenhaus-Images zu tun? Weil neue Versorgungsformen
mit ihrem vor allem internen Vernetzungscharakter schwer
wahrnehmbar und deren Ergebnisse nicht unmittelbar erlebbar sind, stellt sich die Frage, wie die Akzeptanz dieser
Versorgungsformen unter den Versicherten gesteigert werden kann. In der betriebswirtschaftlichen Forschung wird das
Phänomen des Übertragens von Marken-Images auf neue
Produkte und Dienstleistungen sowie deren Einfluss auf den
Erfolg von Produkt- und Dienstleistungsinnovationen schon
seit geraumer Zeit behandelt (z. B. Völckner, Sattler,
Hennig-Thurau & Ringle, 2010). Ausgangspunkt der
Überlegungen ist dabei, dass die Akzeptanzbereitschaft von
Neuem und Unbekanntem höher ist, wenn bereits Bekanntes
damit verknüpft werden kann. Ein neues Produkt wird z. B.
eher angenommen, wenn die Herstellermarke bekannt ist und
ein gutes Image genießt. Wesentliches Ergebnis dieser Forschung ist, dass es unter bestimmten Voraussetzungen möglich
ist, das positive Image einer Marke auf neue Produkte und
Dienstleistungen zu übertragen und damit die Akzeptanz und
den Erfolg von Innovationen zu stärken. Diese Idee bietet sich
auch für die Förderung der Akzeptanz von Innovationen im
Gesundheitswesen an. Wenn nachweisebar wäre, dass positive
Images von bestimmten Leistungserbringern im Gesundheitswesen auf innovative Versorgungsformen übertragbar wären
und dadurch ihre Akzeptanz und Verbreitung unterstützt
werden könnte, wäre ein Beitrag zur Weiterentwicklung unseres Gesundheitswesens geleistet. Je nachdem, für welche
Leistungsanbieter ein positiver Image-Transfer möglich wäre,
könnte die Gesundheitspolitik die Beteiligung bestimmter
Leistungserbringer an Versorgungsinnovationen fördern
oder bisherige Leistungserbringer könnten sich gezielter und
erfolgsorientierter in die Weiterentwicklung der Versorgungsstrukturen investieren und im Gesundheitswesen mit neuen
Leistungsmodellen neue Versorgungsfelder erschließen und
den langfristigen Erfolg sicherstellen.
Operationalisierung von Images
Bevor eine Übertragung von Images beispielsweise von
Krankenhäusern auf neue Versorgungsformen erfolgen kann,
stellt sich die Frage, ob ein Image von Krankenhäusern überhaupt existiert und ob eine entsprechende Wahrnehmung von
Krankenhäusern darstellbar und kommunizierbar ist. Diesem
Aspekt ist die im Folgenden darzustellende Studie gewidmet. In ihr geht es darum herauszufinden, wie Krankenhäuser
wahrgenommen werden, was für ein Image unterschiedliche
Krankenhäuser haben und wie man diese Images in subjektiven Wahrnehmungsräumen darstellen und interpretieren
kann.
Das dabei eingesetzte Verfahren »Multidimensionale
Skalierung« (MDS) stammt aus der Psychometrie und wird
in verschiedenen Gebieten der empirischen sozial- und
verhaltenswissenschaftlichen Forschung eingesetzt, insbesondere auch in der Marktforschung. Mit diesem Verfahren ist
es möglich, die Positionierung von Objekten (hier: Krankenhäuser) in subjektiven Wahrnehmungsräumen verlässlich zu
bestimmen und zu interpretieren. Wenn Images von Krankenhäusern nachgewiesen und ihre Position in subjektiven Wahrnehmungsräumen dargestellt werden können, wäre eine notwendige Voraussetzung für weitere Forschungsbemühungen
gegeben, die den Transfer des Images von Krankenhäusern
oder anderen Gesundheitsorganisationen auf neue Versorgungsformen und deren Einfluss auf die Akzeptanz von Versicherten untersuchen könnten. Aus wissenschaftlicher Sicht ist
diese Frage interessant, um grundlegende Auswirkungen der
Markenbildung und der Reputation im Gesundheitswesen
abschätzen und Besonderheiten eines für das Gesundheitswesen spezifizierten Markenmanagements identifizieren zu
können.
Nachfolgend wird die Durchführung einer MDS-Studie
zur Identifikation von »corporate images« (etwa mit »Wahrnehmung von Unternehmen« zu übersetzen) von saarländi-
VSE AG
Heinrich-Böcking-Straße 10–14
66121 Saarbrücken
Tel. 0681 6070, [email protected]
schen Krankenhäusern vorgestellt. Dazu wird zunächst das
Konzept von »corporate images« skizziert und auf subjektive
Wahrnehmungsräume eingegangen, die MDS kurz vorgestellt
und die forschungspraktische Anwendung anhand der Ergebnisse einer empirischen Vorstudie präsentiert.
»Corporate Image«, Subjektive Wahrnehmungsräume
und Multidimensionale Skalierung
»Corporate Image«
Ein »Image« bezeichnet den Gesamteindruck, den man
von einer Sache, einer Person oder einem beliebigen anderen
Wahrnehmungsobjekt hat. Diese Images bestimmen zu einem
großen Teil, wie man sich gegenüber diesem Objekt verhält.
Der Gesamteindruck, den Unternehmen vermitteln (»corporate image«), spielt zum Beispiel eine wichtige Rolle bei der
Entscheidung, ob jemand Kunde eines Unternehmens wird
oder bleibt. »Corporate images« entstehen einerseits durch
die Aktivitäten eines Unternehmens, aber auch durch die
Reputation des Unternehmens und durch die Erfahrungen,
die verschiedene Anspruchsgruppen mit einem Unternehmen
machen (Esch, 2012). Bei Unternehmen und Organisationen, die noch neu und unbekannt sind, gestaltet sich der Wahrnehmungsprozess, der zu einem »corporate image« führt, als
sehr komplex. Übertragungseffekte von wahrnehmbaren Attributen (»halo-effect«) und das Schließen von einigen wenigen bewertbaren Merkmalen auf die Gesamtwahrnehmung
des Unternehmens (»inference«) spielen hier eine wichtige
Rolle (Kroeber-Riel, Weinberg & Gröppel-Klein,
2009). Wenn neue Organisationsformen geschaffen werden,
liegen noch kaum Erfahrungswerte vor, die als Grundlage der
Eindrucksbildung herangezogen werden können. Dennoch
entsteht ein Gesamteindruck, der eher positiv oder eher negativ ausfallen kann. Die Übertragung von wenigen bekannten
Merkmalen auf das »corporate image« neuer Organisationsformen ist ein wichtiger Ansatzpunkt um den Gesamteindruck unbekannte Versorgungsformen zu beeinflussen und
höhere Akzeptanz zu erzeugen. Existiert beispielsweise ein
relativ homogener und positiver Gesamteindruck von einem
Krankenhaus und würde das Krankenhaus eine neue Versorgungsform anbieten bzw. sich daran beteiligen, kann man
davon ausgehen, dass das »corporate image« des Krankenhauses auch für die Bildung des Gesamteindrucks der neuen
Versorgungsform herangezogen wird. Das positive »corporate image« würde dann von einer Organisationsform auf
die andere übertragen, es würde dann ein Image-Transfer
stattfinden (Nieschlagl, Dichtl & Hörschgen, 2002).
Dieser Image-Transfer zur Förderung der Akzeptanz neuer Versorgungsformen kann aber nur dann gezielt eingesetzt
werden, wenn ein hinreichend konsistenter Gesamteindruck
eines Unternehmens oder eines Krankenhauses existiert, der
messbar und darstellbar ist. Für komplexe Wahrnehmungsobjekte wie Krankenhäuser ist das nicht ohne weiteres vorauszusetzen. Um solche Gesamteindrücke besser zu verstehen, geht
man von der Annahme aus, dass sich die Wahrnehmung von
Objekten in sogenannten subjektiven Wahrnehmungsräumen
darstellen lässt. Dabei nimmt man an, dass Wahrnehmungsobjekte bestimmte Positionen in diesen Wahrnehmungsräumen
haben, die sich messen und in »Wahrnehmungs-Landkarten«
(»perceptual maps«) (Schmalensee & Thisse, 1988) übertragen lassen.
Management des Gesundheitswesens
Für Unternehmen spielt dieses Konzept der Subjektiven Wahrnehmungsräume beispielsweise im Rahmen
ihrer Positionierung eine wichtige Rolle. Werden mehrere
Unternehmen oder Produkt- bzw. Dienstleistungs-Marken
in subjektiven Wahrnehmungsräumen dargestellt, können
aufgrund der Nähe verschiedener Objekte in diesen Wahrnehmungsräumen zum Beispiel Wettbewerbsbeziehungen
ermittelt werden. Subjektive Wahrnehmungsräume können
mehrere Dimensionen haben, zu vereinfachten Darstellung
geht man aber meistens von zweidimensionalen Wahrnehmungsräumen aus, die sich dann tatsächlich ähnlich wie
Landkarten lesen lassen. Die Dimensionen sind dann aber
nicht die Nord-Süd und Ost-West-Ausrichtung, sondern die
Dimensionen entsprechen Eigenschaftswahrnehmungen,
die zum Verständnis subjektiver Wahrnehmungsräume am
besten unabhängig voneinander, im geometrischen Sinne also
orthogonal zueinander sein sollten. Für Organisationen aus
der medizinischen Versorgung lassen sich als unabhängige
Dimensionen in subjektiven Wahrnehmungsräumen beispielsweise die wahrgenommene medizinisch-fachliche
Qualität und die wahrgenommene Freundlichkeit des Personals verstehen. Beide können unabhängig voneinander
variieren, das heißt, ein Krankenhaus kann zwar medizinischfachlich als hoch kompetent, aber unfreundlich wahrgenommen werden, während ein anderes Krankenhaus vielleicht
als besonders patientenfreundlich, aber medizinisch-fachlich
weniger kompetent angesehen werden kann.
7 14
3 15
Multidimensionale Skalierung
Bei der Multidimensionalen Skalierung (MDS) handelt
es sich um ein Verfahren, mit dem man unbekannte Positionen von Objekten im subjektiven Wahrnehmungsraum von
Personen auffinden kann (Jaworska & ChupetlovskaAnastasova, 2009). Die MDS gehört unter den Verfahren
zur Messung und Darstellung von »corporate images« zu
den am besten geeigneten Verfahren (Dowling, 1988). Bei
der MDS bewerten Personen zunächst nur die Ähnlichkeiten bzw. Unähnlichkeiten von Objekten wie beispielsweise
Unternehmen oder Krankenhäuser. Aus diesen paarweisen
Ähnlichkeits- bzw. Unähnlichkeitsurteilen werden Rangreihungen bzw. Matrizen von aggregierten Ähnlich- bzw. Unähnlichkeitsdaten der Objekte gebildet. Diese Informationen
werden von dem Verfahren dann in Koordinaten-Punkte für
die darzustellenden Objekte transformiert, mit denen die
Positionen grafisch veranschaulicht werden können (Backhaus, Erichson, Plnke & Weiber, 2011). Es handelt sich
damit um ein empirisches statistisches Verfahren, mit dem
ordinal skalierte Ähnlichkeits-Daten auf das höhere metrische Skalen-Niveau gehoben werden (Kruskal, 1964 a, b).
Als ähnlich wahrgenommene Objekte werden nahe beieinander liegend dargestellt, während unähnliche Objekte so
dargestellt werden, dass sie räumlich weit auseinander liegen.
Die Angabe von reinen Ähnlichkeits-Bewertungen ist für
die MDS ausreichend und stellt ihre methodische Stärke dar,
weil die Images indirekt, und damit verlässlicher gemessen
und dargestellt werden können. Das hat aber den Nachteil,
dass die Dimensionen des Wahrnehmungsraums zunächst
nicht interpretiert werden können. Um die Dimensionalität
einer Konfiguration (=ermittelte Positionen von Bewertungsobjekten im subjektiven Wahrnehmungsraum) interpretieren
zu können, bedarf es zusätzlich der Angabe von Rangreihungen der zu bewerteten Objekte anhand vorgegebener
Eigenschaften. Die Ergebnisse der eigenschaftsbezogenen
Rangreihungen dienen dann der Ermittlung von DimensionsBezeichnungen des Wahrnehmungsraums. Diese Eigenschaften übernehmen die Funktion der Orientierungsrichtungen
vergleichbar den Himmelsrichtungen bei Landkarten.
Weiterhin ermöglicht es die MDS aus Sicht der Befragten, »ideale« Positionen zu identifizieren, die aus Sicht der
Befragten die am meisten präferierten Positionen darstellen.
Die Entfernung von den dargestellten Objekten von den jeweiligen Idealpositionen, die für jeden einzelnen Befragten
bestimmt werden können, wird verwendet, um die Attraktivität von Positionen im Wahrnehmungsraum beispielsweise für
Unternehmen oder Marken zu bestimmen. Es wird nämlich
angenommen, dass die Distanz von Objekten zu der idealen
Position umgekehrt proportional zur Wahlwahrscheinlichkeit
ist. Liegt ein Produkt in der Wahrnehmung eines Befragten
nahe an dessen idealer Position, ist die Wahrscheinlichkeit,
dass dieses Produkt vom Befragten im Bedarfsfall gewählt
wird höher als für ein weiter entfernter gelegenes Produkt.
Die Positionen im Wahrnehmungsraum, die von vielen Idealpunkten der Befragten gekennzeichnet sind, stellen attraktive Positionen dar, wohin sich Unternehmen positionieren
sollten. Bereiche im Wahrnehmungsraum, wo sich wenige
Idealpunkte befinden, sollten gemieden werden, weil dort
geringe oder keine Nachfrage zu erwarten ist. Die zuvor ermittelten Eigenschaftsdimensionen helfen, diese Positionen
inhaltlich zu beschreiben.
Wie gut sich die empirischen Daten in eine Konfiguration transformieren lassen, kann mit Hilfe von Kennzahlen
der MDS beschrieben werden. Das gängigste Maß für die
MDS ist das sogenannte »STRESS« -Maß, das zwischen 0 und
1 liegt und bei dem kleine Werte eine gute Anpassung und
hohe Werte eine schlechte Anpassung der ermittelten räumlichen Distanzen an die Ähnlichkeitsurteile der Probanden
anzeigen. Als weiteres Maß wird die quadrierte Korrelation
(RSQ = r-squared correlation) herangezogen, das den Anteil
der erklärten Varianz zwischen Ähnlichkeit und Distanzen
angibt. Auch dieses Maß ist zwischen 0 und 1 skaliert, hohe
Werte bedeuten hier aber eine bessere Anpassung. Die Aussage des RSQ ist vergleichbar mit R2 von Regressionsanalysen
(Kruskal, 1964 a).
»Corporate Images« von Krankenhäusern im Saarland
Die forschungspraktische Umsetzung der vorangegangenen Überlegungen wird nachfolgend anhand einer Positionierungsanalyse saarländischer Krankenhäuser mit Hilfe der
MDS dargestellt. Da es sich bei der MDS um ein vergleichsweise aufwändiges Verfahren handelt, würden der Befragungsaufwand und die kognitive Beanspruchung der Probanden
bei einer großen Zahl von Vergleichsobjekten schnell sehr
hoch. Denn jedes der in die Analyse einbezogenen Krankenhäuser muss mit jedem anderen Krankenhaus bezüglich
ihrer Ähnlichkeiten beurteilt werden. Würden in einer solchen Analyse alle 25 im Krankenhausplan für das Saarland
2011–2015 aufgeführten Einrichtungen berücksichtigt werden, müsste jeder Proband je nach Methode entweder 300
oder 600 Paarvergleiche durchführen. Methodische Aspekte
der MDS verlangen aber, dass die Daten eine gewisse Mindestqualität aufweisen und möglichst widerspruchsfrei sind,
damit die Verlässlichkeit der Analyse gewährleistet ist. Diese
Überlegungen haben dazu geführt, dass in die Studie nur eine
reduzierte Auswahl von 10 saarländischen Krankenhäusern
einbezogen wurde. Die Auswahl erfolgte unter regionalen
Gesichtspunkten und unter Leistungsgesichtspunkten. Mit
der gewählten Datenerhebungsmethode (Ankerpunktmethode) werden bei einem Vergleich von 10 Krankenhäusern
pro Proband 90 Paarvergleiche notwendig, k x (k-1), mit k =
Anzahl der Krankenhäuser. Für die Probanden ist auch diese
Anzahl von Paarvergleichen mit der Ankerpunktmethode
eine anspruchsvolle Aufgabe, die aber dadurch erleichtert
werden kann, dass die Erhebung computergestützt erfolgt.
Um eine inhaltliche Interpretation der Konfiguration zu
ermöglichen, wurden vier Eigenschaften ausgewählt, die als
relativ unabhängig voneinander angesehen werden können.
Diese Eigenschaften waren:
1.
2.
3.
4.
Fachliche Kompetenz,
Medizinisch-Technische Ausstattung,
Serviceangebote,
Freundlichkeit des Personals.
Die in die Studie einbezogenen Krankenhäuser waren:
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
Wenn tatsächlich konsistente Markenbilder existieren
sollten, kann mit den Ergebnissen der Befragung die Wahrnehmung der in die Untersuchung einbezogenen Krankenhäuser in einem zweidimensionalen Raum grafisch veranschaulicht werden. Es kann somit eine Wahrnehmungs-Landkarte erzeugt werden, in der die relativen WahrnehmungsUnterschiede der Krankenhäuser in der Bevölkerung dargestellt sind. Dabei handelt es sich um relative und subjektive
Wahrnehmungsunterschiede in Form einer Positionierung.
Das bedeutet, dass die unterschiedlichen Positionen von
Krankenhäusern nicht absolut, sondern nur im Bezug auf
die verglichenen Krankenhäuser interpretierbar sind.
Marienhausklinik St. Josef Losheim am See
Marienhaus St. Elisabeth Klinikum Saarlouis
Krankenhaus Saarlouis vom DRK
Krankenhaus St. Josef Dudweiler
Evang. Stadtkrankenhaus Saarbrücken
Städtisches Klinikum Neunkirchen
Klinikum Merzig gGmbh
Marienkrankenhaus St. Wendel
Klinikum Saarbrücken Winterberg
Uniklinik Homburg
Schlüsselung
Alter
Geschlecht
Einkommen
Anzahl
Anteil
15–24 Jahre
29
29,6 %
25–44 Jahre
28
28,6 %
45–64 Jahre
24
24,5 %
älter als 64 Jahre
17
17,4 %
weiblich
46
47,0 %
männlich
52
53,1 %
weniger als 1300 €
21
21,4 %
1301–2600 €
12
12,2 %
2601–3200 €
7
7,1 %
mehr als 3200 €
4
12,4 %
46
47,0 %
9
9,2 %
keine Angaben
Höchster
Volks- / Hauptschulabschluss
Bildungs-
Realschul- / gleichwertiger Abschluss
12
12,2 %
(Fach)- Hochschulreife
36
36,8 %
(Fach)- Hochschulabschluss
33
33,7 %
Sonstige
8
8,2 %
Beruflicher
Selbständige/r
4
4,1 %
Status
Beamte/r
8
8,2 %
21
21,4 %
Arbeiter/in
3
3,1 %
Student/in
46
47,0 %
Sonstiges
16
16,3 %
abschluss
Angestellte/r
Tabelle 1: Zusammensetzung der Stichprobe, n = 98
Datengrundlage
Die Anwendung der MDS als quantitativ-empirische Methode macht eine Datenerhebung per Befragung notwendig.
Bei dieser Befragung waren von den Probanden zunächst
Ähnlichkeiten der oben genannten Krankenhäuser anzugeben. Danach hatten die Befragten die Krankenhäuser anhand
der oben genannten Eigenschaften dadurch zu bewerten, dass
sie die Krankenhäuser bezüglich dieser Eigenschaften in eine
Rangreihenfolge zu bringen hatten. Das Krankenhaus, welches aus Sicht eines Befragten das patientenfreundlichste
Personal hat, war in der Rangreihe an erster Stelle zu setzen,
das Krankenhaus mit dem zweitfreundlichsten Personal an
zweiter Stelle et cetera. Zuletzt mussten die Probanden angeben, welche Krankenhäuser einmal ohne Berücksichtigung
des eigenen Wohnortes und einmal mit Berücksichtigung des
eigenen Wohnortes der Reihe nach gewählt würden, wenn ein
Bedarf an stationärer medizinischer Behandlung vorliegen
würde.
Die Befragungen fanden in fünf saarländischen Fußgängerzonen in den Städten Saarbrücken, Merzig, St. Wendel,
Saarlouis und Homburg durch geschulte Interviewer und
hauptsächlich softwaregestützt statt. Zum Teil wurden Daten
aber auch ohne Computer-Unterstützung erhoben, um die
Daten zu validieren. An der Befragung nahmen 98 Probanden
teil. Die Zusammensetzung der Stichprobe ist Tabelle 1 zu
entnehmen. Aus ihr wird deutlich, dass die Datengrundlage
keinen Anspruch auf Repräsentativität erheben kann. Das
ist bei der Interpretation der Ergebnisse zu berücksichtigen.
Ergebnisse
Die Durchführung der MDS führte zu den Gütemaßen STRESS 2 (Young) = 0,36 und RSQ = 0,43, was als hinreichend gute Anpassung der gefundenen Konfiguration
an die Ähnlichkeitsdaten in einem auf zwei Dimensionen
reduzierten Wahrnehmungsraum darstellt. Als Ergebnisse
der MDS können die Positionen der Krankenhäuser im subjektiven Wahrnehmungsraum dargestellt werden, die aus den
Ähnlichkeitsurteilen der Probanden gewonnen werden konnten
(Abb. 1). Aus Abbildung 1 wird deutlich, dass die Krankenhäuser im Saarland von den Befragten sehr differenziert
wahrgenommen werden. Das wird daraus ersichtlich, dass in
jedem Quadranten des zweidimensionalen Wahrnehmungsraums Krankenhäuser positioniert sind. Auffallend ist, dass
die beiden Krankenhäuser der Maximalversorgung im Saarland, das Universitätsklinikum Homburg und das Städtische
Klinikum Winterberg, eine sehr geringe Distanz zueinander
aufweisen und folglich als sehr ähnlich wahrgenommen werden. Hinsichtlich ihres Leistungsspektrums erscheint diese
Lösung plausibel und spricht für die Validität des Positionierungsergebnisses.
Um dieses Bild besser interpretieren zu können, werden
die abgefragten Eigenschafts-Reihenfolgen, in denen die
Krankenhäuser von den Befragten gebracht wurden, darge-
Abb 1: Konfiguration saarländischer Krankenhäuser, Eigenschaftsausprägungen
und Idealvektoren im subjektiven Wahrnehmungsraum, ohne
Berücksichtigung des Wohnortes
stellt. Wie in Abbildung 1 an den roten Quadraten zu sehen
ist, weist die Eigenschaft »Freundlichkeit des Personals« in
der Wahrnehmung der Befragten in Nord-Nordöstliche Richtung. Bei Krankenhäusern, die in dieser Richtung positioniert
sind, wird das Personal freundlicher angesehen als Kranken-
www.medserv-ce.de
Full Service
Management des Gesundheitswesens
Fokussiert und flexibel
7 16
3 17
INNOVATIV UND
UNABHÄNGIG
Als herstellerunabhängiges Dienstleistungsunternehmen können wir
unseren Kunden schnelle, effiziente und wirtschaftliche Lösungen
sowie den bestmöglichen Service bieten.
Unser Angebotsportfolio umfasst
die Bereiche Medizintechnik sowie
Haus- und Betriebstechnik. Dabei
stehen das Gerätemanagement,
Reparaturen und Prüfungen, Beratungsleistungen sowie der Vertrieb
von Geräten und Ersatzteilen im
Vordergrund. Unsere Leistungen
garantieren eine Optimierung Ihrer
Prozesse und Kosten.
MEDSERV-CE KONTAKT
KONTAKTSTARK UND VERNETZT
Tel 06897 / 924978-0
Fax 06897 / 924978-99
E-Mail [email protected]
Im Rahmen unserer langjährigen Erfahrungen und Kontakte
am Markt haben wir uns ein großes Netzwerk zu Herstellern,
Lieferanten und Partnerunternehmen aufgebaut.
Abb 2: Konfiguration saarländischer Krankenhäuser,
Eigenschaftsausprägungen und Idealvektoren im subjektiven
Wahrnehmungsraum, ohne Berücksichtigung des Wohnortes
häuser, die in entgegengesetzter Richtung positioniert sind.
In der vorliegenden Konfiguration wird deutlich, dass das
Personal im Klinikum in Merzig in Relation zu den anderen
Krankenhäusern als patientenfreundlicher angesehen wird.
Als weitere Eigenschaften wurden die mit den Krankenhäusern in Verbindung gebrachte fachliche Kompetenz sowie die
medizinisch-technische Ausstattung abgefragt und dargestellt.
In Abbildung 1 zeigen die entsprechenden roten Quadrate in
Richtung West-Südwest. Krankenhäuser, deren Position in
dieser Richtung liegen, werden als fachlich kompetenter und
besser medizinisch-technisch ausgestattet wahrgenommen.
Wie sich aus Abbildung 1 ersehen lässt, trifft dies auf die beiden Krankenhäuser der Maximalversorgung zu und erscheint
augenscheinlich als plausibel. Dass diese Eigenschaften und
ihre Darstellungen in Form von Eigenschaftsvektoren vom
0-Punkt der Darstellung aus gesehen praktisch senkrecht
zueinander stehen zeigt, dass sie – wie oben angenommen
– voneinander unabhängig sind. Die Serviceorientierung
wurde ebenfalls abgebildet, stellt aber keine von den anderen Eigenschaften unabhängige Eigenschaft dar, was sich an
dem Winkel des gedachten Vektors zu der entsprechenden
Markierung erkennen lässt.
Als letzte Information können die Positionen ermittelt
werden, in denen die Probanden idealerweise Krankenhäuser
sehen. Jeder Proband ist in Abbildung 1 als grünes Kreuz
dargestellt. Die Kreuze sind als Pfeilspitzen von Einheitsvektoren zu verstehen, die in die Richtung weisen, in denen
der einzelne Proband sein ideales Krankenhaus sieht. Je weiter Krankenhäuser vom Nullpunkt aus gesehen in Richtung
dieser durch Probanden-Kreuze repräsentierten Einheitsvektoren wahrgenommen werden, desto mehr entsprechen sie
den idealen Vorstellungen des jeweils Befragten. Das bedeutet, dass in der Richtung, auf die viele der Einheitsvektoren
hinweisen bzw. wo die Kreuze besonders gehäuft auftreten,
sind die von den Befragten am meisten präferierten Krankenhaus-Positionen. Wie in Abbildung 1 zu sehen ist, präferieren
die Befragten ein hohes Maß an fachlicher Kompetenz und
eine hohe medizinisch-technische Ausstattung.
Beachtet werden muss, dass die idealen Positionen der
Befragten in Abbildung 1 (grüne Kreuze) ohne Berücksichtigung des Wohnortes in eine Rangreihe gebracht werden
sollten. Im Unterschied dazu wurden die gleichen Probanden
in einer weiteren Frage darum gebeten, eine entsprechende
Rangreihung unter Berücksichtigung des eigenen Wohnortes vorzunehmen. Die entsprechenden idealen Richtungen
sind in Abbildung 2 für jeden Befragten als grüne Quadrate
dargestellt. Abbildung 2 unterscheidet sich von Abbildung 1
nur durch die Wiedergabe der idealen Richtungen der Befragten (vgl. grüne Kreuze vs. grüne Quadrate in Abb. 1 u. 2).
Wird der eigene Wohnort berücksichtigt, verschieben sich
offensichtlich die idealen Richtungen bevorzugter Krankenauspositionen etwas, so dass deutlich wird, dass bei der Wahl
eines Krankenhauses die regionale Nähe zum Wohnort ein
wesentlicher Einflussfaktor der Krankenhauswahl ist.
Bei der Interpretation dieser Konfigurationen ist nochmals darauf hinzuweisen, dass es sich um Darstellungen relativer Positionen handelt und keine Aussagen darüber getroffen
werden können, welchen absoluten Beurteilungen die in die
Analyse einbezogenen Krankenhäusern unterliegen.
Zugleich stellt sich die Frage, wie ideale Richtungen zu interpretieren sind, die gleichzeitig entgegengesetzt zur Richtung des
patientenfreundlichen Personals und der medizinisch-technischen Ausstattung und der fachlichen Kompetenz gelegen
sind. Da eine zweidimensionale Darstellung gewählt wurde,
kann man davon ausgehen, dass es sich um eine hoch aggregierte und stark vereinfachte Darstellung handelt, bei
der gemessen an der Komplexität der Wahrnehmung von
Krankenhäusern einige Information unberücksichtigt bleibt.
Zudem wurden aus Einfachheitsgründen nur vier Eigenschaften abgefragt, was wiederum eine Vereinfachung des Bewertungsproblems »Krankenhaus-Wahrnehmung« darstellt. Um
diese in der vorliegenden Darstellung eher kontraintuitiven
Richtung einiger individueller Idealvektoren interpretieren
zu können, wäre eine höher dimensionierte Konfiguration zu
Grunde zu legen und weitere Eigenschaften in die Analyse
einzubeziehen. Zudem weisen die Anpassungsmaße (STRESS
2 (Young) und RSQ, s. o.) darauf hin, dass die zweidimensionale Lösung zwar akzeptabel ist, aber dadurch verbessert
werden könnte, dass mehr Eigenschaften berücksichtigt
werden und ein höher dimensionierter Wahrnehmungsraum
verwendet wird.
Zusammenfassung und Diskussion
Die Ergebnisse zeigen zunächst, dass die Methode der
MDS plausible Ergebnisse hinsichtlich der Darstellung der
Krankenhäuser im subjektiven Wahrnehmungsraum ermöglicht und bestätigen, dass Krankenhaus-Images mess-, darstellbar und plausibel interpretierbar sind. Die Ergebnisse
zeigen weiterhin, dass Krankenhaus-Images anhand von zwei
unabhängigen Eigenschaften interpretiert werden können,
und zwar hinsichtlich medizinischer Aspekte (fachliche Kompetenz und medizinisch-technische Ausstattung) und hinsichtlich der Freundlichkeit des Personals. Diese Wahrnehmung
von Krankenhäusern als Organisationen und damit als aggregierte Pools von Ressourcen und Kompetenzen entspricht den
Wahrnehmungsmustern, die bereits aus der Erforschung des
Arzt-Patienten-Verhältnisses bekannt ist. Dieses Wahrnehmungsmuster unterscheidet einen medizinisch-technischen
(»task-oriented«) und einen zwischenmenschlichen Aspekt
(»socio-emotional«)
(Hall, Roter & Katz, 1987; Roberts & Aruguete, 2000).
Die vorliegenden Ergebnisse legen nahe, dass solche Wahrnehmungsmuster auch gegenüber Krankenhäusern als Organisationen vorliegen. Die hohen Werte der Maximalversorger
im Saarland hinsichtlich der Dimension »fachliche Kompetenz« und »medizinisch-technische Ausstattung« deuten auf
die Validität der Ergebnisse hin.
Bezogen auf die Frage, was diese Wahrnehmungen als
Images von Krankenhäusern mit der Versorgungsentwicklung
zu tun haben, muss nochmals Bezug auf die Übertragung von
Images auf neue, den Versicherten noch unbekannte Versorgungsformen genommen werden. Da die Daten Hinweise
darauf geben, dass Krankenhaus-Images bestehen und diese
auf plausible und verlässliche Weise gemessen und dargestellt
werden können, ist die Grundlage dafür gegeben, die Übertragbarkeit von Images auf neue Versorgungsformen zu prüfen. Eine naheliegende, aber zu testende Vermutung wäre,
dass Krankenhäuser, die das Image hoher fachlicher Kompetenz und guter medizinisch-technischer Ausstattung genießen,
ihr Image auf neue Versorgungsformen übertragen und deren
Akzeptanz damit erhöhen können. Diese Annahmen sind
allerdings in weiteren Studien zu prüfen wie auch den Möglichkeiten nachzugehen wäre, welche anderen Image-Dimensionen von Krankenhäuser oder anderen Einrichtungen des
Gesundheitswesens besser geeignet wären, um sie auf neue Versorgungsformen für eine höhere Akzeptanz zu übertragen.
Literatur
—
Backhaus, K., Erichson, B., Plinke, W. & Weiber, R. (2011): Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, 13. Aufl., Heidelberg: Springer.
—
Dietrich, M., & Molter, N. (2013). Kundenmanagement in der Integrierten Versorgung.
In R. Busse, J. Schreyögg & T. Stargardt (Eds.), Kundenmanagement im Gesundheitswesen
– Einführung und methodische Grundlagen (210). Berlin-Heidelberg: Springer.
—
Dowling, G. R. (1988). Measuring corporate images: A review of alternative approaches.
—
Esch, F.-R. (2012). Strategie und Technik der Markenführung, 7. Aufl., München: Vahlen.
Journal of Business Research, 17(1), 27–34. doi: http://dx.doi.org/10.1016/0148-2963(88)90019-7
—
D
Univ.-Prof. Martin
ietrich
ist seit 2011 Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insb. Management des Gesundheitswesens, an
der Rechts- und Wirtschaftswissenschaftlichen Fakultät der
Universität des Saarlandes. Zuvor promovierte er im Bereich
marktorientiertes Krankenhausmanagement und habilitierte
zur Bedeutung, Relevanz und Umsetzung marktorientierter
Strategieansätze im Gesundheits-, Public-/Nonprofit- und
Dienstleistungsmanagement an der Albert-Ludwigs-Universität Freiburg im Breisgau.
Zurzeit ist Prof. Dietrich Studienbeauftragter der wirtschaftswissenschaftlichen Abteilung und Vorsitzender des
Prüfungsamtes an der Rechts- und Wirtschaftswissenschaftlichen Fakultät.
Seine Forschungsschwerpunkte liegen im Bereich der
Erforschung neuer Versorgungsformen und Innovationen im
Sinne system- und marktfähiger, gesellschaftlich akzeptierter
und wirtschaftlich tragfähiger Lösungen, was mit der Erforschung von Organisationsverhalten, Regulierung und Innovation, Geschäftsmodellentwicklung im Gesundheitswesen
und der Akzeptanz und Umsetzung betriebswirtschaftlicher
Ansätze in Organisationen und Unternehmen des Gesundheitswesens einhergeht.
Hall, J. A., Roter, D. L. & Katz, N. R. (1987). Task Versus Socioemotional Behaviors
in Physicians. Medical Care, 25(5), 399 –412.
—
Jaworska, N. & Chupetlovska-Anastasova, A. (2009). A review of multidimensional
scaling (MDS) and its utility in various psychological domains. Tutorials in Quantitative Methods
for Psychology, 5(1), 1–10.
—
Kroeber-Riel, W., Weinberg, P. , Gröppel-Klein, A. (2009).
Konsumentenverhalten, 9. Aufl.), München: Vahlen.
—
Kruskal, J. B. (1964 a). Multidimensional scaling by optimizing goodness of fit to a
nonmetric hypothesis. Psychometrika, 29(1), 1–27. doi: 10.1007/bf02289565
—
Kruskal, J. B. (1964 b). Nonmetric multidimensional scaling: A numerical method.
Psychometrika, 29(2), 115–129. doi: 10.1007/bf02289694
—
Nieschlagl, R., Dichtl, E. & Hörschgen, H. (2002). Marketing , 13. Aufl.,
Berlin: Duncker & Humblot.
Management des Gesundheitswesens
—
Roberts, C. A. & Aruguete, M. S. (2000). Task and socioemotional behaviors of physicians:
a test of reciprocity and social interaction theories in analogue physician-patient encounters.
Social Science & Medicine, 50(3), 309–315. doi: 10.1016/s0277– 9536(99)00245-2
—
Schmalensee, R. & Thisse, J.-F. (1988). Perceptual maps and the optimal location of new
products: An integrative essay. International Journal of Research in Marketing, 5(4), 225–249.
doi: http://dx.doi.org/10.1016/0167– 8116(88)90003-1
—
Simon, M. (2010). Das Gesundheitssystem in Deutschland :
eine Einführung in Struktur und Funktionsweise, 3. Aufl., Bern: Huber.
—
Statistisches Bundesamt (2013): Todesursachen, https://www.destatis.de/DE/ZahlenFakten/
GesellschaftStaat/Gesundheit/Todesursachen/Tabellen/GestorbeneSterbeziffer.html
—
Völckner, F., Sattler, H., Hennig-Thurau, T. & Ringle, C. M. (2010). The Role of Parent
Brand Quality for Service Brand Extension Success. Journal of Service Research, 13(4), 379 –396.
7 18
3 19
doi: 10.1177/1094670510370054
M
Dipl.-Kffr. Nadine
olter
arbeitet seit 2011 als Wissenschaftliche Mitarbeiterin
und Doktorandin am Lehrstuhl für Betriebswirtschaftslehre,
insb. Management des Gesundheitswesens, der Rechts- und
Wirtschaftswissenschaftlichen Fakultät der Universität des
Saarlandes. Zuvor studierte sie Betriebswirtschaftslehre mit
Schwerpunkt Marketing an der Universität des Saarlandes.
Zu ihren Forschungsinteressen gehören die verhaltenswissenschaftliche Marketingforschung im Gesundheitswesen und
die Gesundheitsverhaltensforschung.
Zukunftswerkstatt Mobilität –
Plattform zur Mobilitätsforschung
an der UdS
Prof. Dr. Michael Vielhaber
Konstruktionstechnik
Dr. Christian Müller
Intelligente Benutzerschnittstellen
Wir schreiben das Jahr 2013. Mobilität wird als ein
wesentliches menschliches Grundbedürfnis gesehen.
Mobilität macht unabhängig und befreit von örtlichen Beschränkungen. In unserem heutigen Wirtschaftssystem
ist Mobilität notwendig, gewollt und ein Schlüssel für
die Zukunftssicherung. Oft wird dabei auf das Automobil
gesetzt – so bezeichnet sich das Saarland gerne als Autoland. Unsere Abhängigkeit von Mobilität erkennt man
besonders dann, wenn diese unerwartet eingeschränkt
wird – etwa durch Streiks, Witterung oder Staus. Mobilität ist ein Element von und ein Symbol für Freiheit. Heute
erwarten wir für den Erhalt bzw. die Steigerung unserer
Lebensqualität aber noch viel mehr: Produktion zu
minimalen Kosten rund um die Welt, Transporte kostengünstig und just-in-time, Reisen ans andere Ende der
Welt und Erdbeeren aus Übersee zum Weihnachtsfest.
Immer größere Entfernungen sollen immer komfortabler und kräfteschonender zurückgelegt werden.
Mobilität
bezeichnet die Ortsveränderungen von Lebewesen oder
Gegenständen im physischen, baulichen oder geografischen
Raum. [1]
Nachhaltigkeit
beschreibt die Nutzung eines regenerierbaren Systems
in einer Weise, dass dieses System in seinen wesentlichen
Eigenschaften erhalten bleibt und sein Bestand auf natürliche
Weise regeneriert werden kann. [3]
Und 2050?
»Wer mit dem Auto zur Arbeit fährt, kann unterwegs
eine Decke häkeln, weil er stundenlang im Stau steht. Bei der
Suche nach einem Parkplatz geht anschließend eine ganze
Tankfüllung drauf. Blechlawinen überall, vorwärtskommen
kaum möglich. Was wie ein überdrehtes Schreckensszenario
wirkt, könnte schnell zur Wirklichkeit werden – wenn die Zahl
der Autos weltweit wächst wie vorhergesagt« [2].
Heutige Mobilitätslösungen versagen immer öfter, wenn
es darum geht, das Grundbedürfnis Mobilität zu befriedigen.
Heutige Lösungen führen zu vielfältigen Umweltwirkungen,
die langfristig nicht tragbar sein werden. Heutige Mobilität ist
nicht nachhaltig.
IT-Lösungen für Rechenzentren
Me
erz
rzig
ig
ger
er S
Str
tra
aß 80
aße
6676
66
7 3 Di
Dill
llin
ll
in
nge
gen
n
06
683
31 - 96
669
6990
9
www.ha
ww
art
rte
ech de
ec
ech.
e
Mobilität ist daher umso mehr ein Zukunftsthema, ein
Thema auch für universitäre Forschung. Dabei verharren
viele – insbesondere industrielle – Forschungsarbeiten im
bestehenden System. Verbrauchsoptimierungen, Leichtbau und auch Car-Sharing-Modelle können zwar wichtige
Beiträge leisten, gesetzte Umweltziele aber langfristig alleine
nicht erfüllen. Auch Förderprojekte in Bund und Land greifen
oft zu kurz, indem sie weiter etablierte Pfade verfolgen und
beispielsweise den Aufbau von Flotten elektrifizierter, jedoch
ansonsten konventioneller Fahrzeuge fördern. Zielsetzungen
der EU mit CO2-Reduktionen auf ein Fünftel bis zum Jahre
2050 [4] werden dagegen nur mit einem umfassenden Mobilitätswandel erreichbar sein: 1. Vermeidung von Verkehr durch
städtebauliche Maßnahmen. 2. Verlagerung von Individualverkehr auf öffentliche Verkehrsmittel. 3. Verbesserung von
Fahrzeugen und Infrastruktur. Virtuelle Techniken müssen
die Entwicklung von Mobilitätssystemen von der einzelnen
Komponente bis zum intermodalen Verkehrssystem vorantreiben. Nachhaltige Entwicklungen zur Mobilität erfordern
einen »Wandlungsprozess, in dem die Nutzung von Ressourcen, das Ziel von Investitionen, die Richtung technologischer
Entwicklung und institutioneller Wandel miteinander harmonieren und das derzeitige und künftige Potential vergrößern,
menschliche Bedürfnisse und Wünsche zu erfüllen« [5].
Auch an der Universität des Saarlandes wird Mobilität in
vielfältiger Weise erforscht. Zum letztjährigen Tag der offenen
Tür der Universität des Saarlandes eröffneten Prof. Michael
Vielhaber vom Lehrstuhl für Konstruktionstechnik und Dr.
Christian Müller von der Automotive Group des DFKI
ihre »Zukunftswerkstatt Mobilität«, um einige dieser Aktivitäten zu bündeln und eine Plattform zur Mobilitätsforschung
an der Universität des Saarlandes zu schaffen. Der Name
Zukunftswerkstatt verbindet dabei den traditionellen (Auto-)
Werkstatt-Begriff mit den gleichnamigen Methoden der Zukunftsforschung, die darauf zielen, mit neuen Ideen Lösungen
für gesellschaftliche Probleme zu entwickeln.
Konstruktionstechnik / Intelligente Benutzerschnittstellen
Einige Aktivitäten im Umfeld der Mobilitätswerkstatt möchten wir im Folgenden kurz vorstellen.
7 20
3 21
Lehrstuhl für Konstruktionstechnik Automotive-Gruppe des DFKI
white_c
Seit 2010 vertritt Prof. Michael
Vielhaber die Themen Produktentwicklung und Konstruktion in den Studiengängen Mechatronik und Maschinenbau.
Nach dem Motto »Effizientes Engineering für innovative Produkte« verfolgt
sein Team sowohl methodische als auch
produkttechnische Schwerpunkte.
Zu ersteren zählen Arbeiten zur
simulationsbasierten und zur gewichtsorientierten Entwicklung ebenso wie
Arbeiten zur nachhaltigen Produktentstehung und zur virtuellen Entwicklung
von Produkten und Produktionsanlagen.
Produktseitig dient das Thema Mobilität
in erster Linie als Transferthema für
Arbeiten zur Ressourcen- und Energieeffizienz
Das Startup-Unternehmen white_c ist
eine Ausgründung aus dem DFKI und
betreibt in der Zukunftswerkstatt Mobilität einen Fahrsimulator. Daneben leistet
white_c einen Beitrag zur Mobilitätsforschung durch ein Verfahren zur
Aufnahme von Straßenzügen und Stadtgebieten mithilfe von 3D-Laserscannern,
die dann digital für die Simulation von
Verkehrsszenarien nutzbar gemacht
werden: www.white-c.com
Die Automotive-Gruppe des DFKI
unter Leitung von Dr. Christian Müller
gehört zum Fachbereich »Intelligente
Benutzerschnittstellen«. Hier werden
Bedienkonzepte für Fahrzeuge erforscht
wie beispielsweise neuartige Assistenzsysteme sowie mobile Anwendungen,
die den Benutzern helfen verkehrsmittelübergreifend zu reisen. Das Team
besteht aus Experten aus den Bereichen
Informatik und Psychologie, da bei der
Entwicklung von benutzerorientierten
Anwenungen der »Faktor Mensch«eine
wesentliche Rolle spielt. Das gilt vor
allen Dingen in beanspruchenden Situationen wie »fahren« oder allgemeiner
»unterwegs sein«.
Lean Mobility
Elektromobilität wird eine erhebliche Bedeutung bei der
Lösung zukünftiger Umweltherausforderungen zugeschrieben.
Heutige Elektromobilitätsprodukte können dieser Bedeutung
– zumindest angesichts der mittelfristigen Nichtverfügbarkeit
ausreichender regenerativer Energien – jedoch noch nicht
gerecht werden, da sie im Wesentlichen Elektrifizierungen
konventioneller Fahrzeugkonzepte darstellen, die bestenfalls
in innovative Mobilitätskonzepte eingebunden werden. Innovative Leichtfahrzeugkonzepte konnten dagegen bisher keine
Marktakzeptanz erzielen.
Ziel dieses Projektes des Lehrstuhls für Konstruktionstechnik ist daher eine effizienz- und anwendungsorientierte
Produktoptimierung im Bereich elektrischer Leichtfahrzeuge. Im Mittelpunkt des Forschungsvorhabens steht dabei die
Ableitung von Fahrzeugkonzepten, die für definierte Anwendungsprofile hinsichtlich Effizienzkriterien optimiert sind.
Welche maximalen Effizienzwerte sind also erreichbar, um
definierte Nutzer- und Anwendungsanforderungen noch er-
füllen zu können? Insbesondere im Anwendungsbereich des
erweiterten Stadt- und Pendelverkehrs werden hierdurch
erhebliche Effizienzvorteile erwartet, durch deren Umsetzung bei einer Lebenszyklusbetrachtung die entsprechenden
Verbrauchswerte heute marktgängiger Elektrofahrzeuge
zumindest halbiert werden können. Hierzu sind Nutzer- und
Anwendungsanforderungen entsprechenden Produktlösungen
und -eigenschaften gegenüberzustellen und aus Effizienzsicht
zu bewerten, um in der Folge schlanke Produkte im anwendungsspezifischen Effizienzoptimum zu ermöglichen – Produkte, die »LEAN«, also sowohl Leicht und Effizient als auch
Anwendungs- und Nutzergerecht sind.
Aus Sicht der Konstruktionstechnik verfolgt dieses Projekt
einen der wichtigsten Aspekte der Produktentwicklung: Wie
wird die »Stimme des Kunden« in ein passgenaues Produkt überführt, und wie wird diese Stimme für die Zukunft antizipiert?
Effizienzsimulation und -messung
Ressourcen- und Energieeffizienz nehmen eine immer
weiter wachsende Rolle in der Produktentwicklung ein. Die
gesteckten Ziele dabei sind hoch – so fordert eine Studie
von McKinsey bis 2050 Steigerungen in der energetischen
Produktivität um den Faktor 10, um den Herausforderungen
des Klimawandels effektiv begegnen zu können [6]. Offensichtlich wird dies insbesondere im Bereich der Automobilindustrie. Neben den traditionell evolutionären Entwicklungsprozessen von Baureihe zu Baureihe gewinnen daher Neuentwicklungen auf Konzeptebene stark an Bedeutung. Gerade
bei Neuentwicklungen sind die frühen Entwicklungsphasen
von herausragender Bedeutung für den Entwicklungserfolg
hinsichtlich Kosten, Qualitäts- und insbesondere auch Umweltgesichtspunkten. Modellierungs- und Simulationstechniken zielen daher gerade auf diese frühen Phasen ab, um
Optimierungen auf mechatronischer Systemebene zu erreichen, lange bevor erste Konkretisierungen auf physikalischer
Ebene erfolgen. Effizienzsimulationen stellen daher einen
wesentlichen Baustein im Rahmen eines Gesamtansatzes zur
frühzeitigen Berücksichtigung von Umweltaspekten im Produktentwicklungsprozess (EcoDesign) dar. Es werden damit
Möglichkeiten aufgezeigt, bereits in frühen Konzeptphasen
Bewertungen und Vergleiche bezüglich der zu erwartenden
Energieeffizienz und Ökobilanzierung von Produkten durchzuführen. Die bisherigen Simulationsergebnisse konnten sehr
gut anhand von unterschiedlichen Herstellerdaten verifiziert
werden; die Abweichungen von unter 5 % stellen angesichts
der in der frühen Phase erforderlichen Vereinfachungen
einen sehr guten Wert dar. Zusätzlich wird in der Mobilitätswerkstatt eine mobile und fahrzeuguniverselle Effizienzmesstechnik entwickelt, um die Simulationsergebnisse weiter
abzusichern.
Die Anwendung des beschriebenen Simulationsansatzes
im Entwicklungsprozess ist vielfältig. So kann er Produktentwickler bei der Suche nach (energetisch) bestmöglichen Kombinationen für Hybridantriebe unterstützen, also beispiels-
weise das optimale Verhältnis zwischen Muskelkraft und Batterieleistung bei Pedelecs in Abhängigkeit unterschiedlicher
Nutzungsprofile und Fahrzyklen ermitteln. Ebenso können
Analysen zur Rekuperation bei Elektrofahrzeugen oder zu
Fahrstrategien bei Automatikgetrieben durchgeführt werden.
Unter Einbeziehung weiterer Umweltaspekte können auf
Basis von Lebenszyklusanalysen auch werkstofforientierte Leichtbaukonzepte bewertet werden, beispielsweise die
gesamtheitlichen Energie- und Ökobilanzauswirkungen von
Aluminium- und Karbonkarosserien. Das Bild links verdeutlicht die Breite des Anwendungsspektrums mit beispielhaften
Simulationsergebnissen.
Aus Sicht der Konstruktionstechnik verbindet dieses
Projekt wesentliche Stoßrichtungen moderner Produktentwicklung: Wie können Simulationstechniken zur Optimierung
des Entwicklungsprozesses genutzt werden, und wie kann dies
in einen Gesamtansatz zur nachhaltigen Produktentstehung
eingebunden werden?
Komponenten und Systeme
für muskelkraftgetriebene Fahrzeuge
Die Zukunftswerkstatt Mobilität bietet zudem die Möglichkeit, studentische Arbeiten unterschiedlicher konstruktionstechnischer Teilbereiche auf konkrete Produkte zu
transferieren. Mobilitätsprodukte bieten dabei ein ideales
Transferfeld, da sie wesentliche Gestaltungsthemen unserer
Zukunft adressieren. Am Lehrstuhl für Konstruktionstechnik
fokussieren sich die Arbeiten auf muskelkraftbetriebene
Fahrzeuge (Human Powered Vehicles – HPV) als Komponenten einer zukünftigen »LEAN Mobility«. Das Spektrum
reicht dabei über humanelektrische Hybridkonzepte (Human
Power Hybrids – HPH) von Pedelecs bis weit in den Bereich
visionärer Leichtfahrzeuge hinein. So wurden in studentischen Arbeiten bisher vollelektrische Antriebs- und Schaltungskonzepte entwickelt, und eine aktive Fahrradfederung
ist in Arbeit als Ergebnis einer simulationsbasierten mechatronischen Systementwicklung.
Fahrsimulation
Das DFKI betreibt gemeinsam mit white_c in der Zukunftswerkstatt Mobilität einen Fahrsimulator unter Verwendung der selbst entwickelten Open-Source Software OpenDS
(www.opends.eu). Dabei handelt es sich um eine modulare
Software für Fahrsimulationsstudien, die speziell für industrielle Forschung und Entwicklung sowie Universitäten
und wissenschaftliche Institute entwickelt wurde. Sie besteht
hauptsächlich aus den Komponenten Physik (Schwerkraft,
Konstruktionstechnik / Intelligente Benutzerschnittstellen
Fliehkräfte, Kollision mit Gegenständen, Eigenschaften des
Fahrzeuges, Reibung, Energieverbrauch, etc.), Infrastruktur
(Straßen, Schilder, Lichtsignalanlagen, etc.), Visualisierung
(Aussehen und Eigenschaften der Umgebung), Fahraufgaben (Design der eigentlichen Studien) und Analyse (Auswertung der Studien). Wir führen mit systematisch ausgewählten
Probanden Versuche unter streng kontrollierten Bedingungen durch. Die Versuche werden in einem realen Fahrzeug
durchgeführt, das an den Simulator angeschlossen ist. Über
eine zylindrische Projektion, die das periphere Sichtfeld mit
einschließt, stellen wir eine valide visuelle Reproduktion der
gewünschten Verkehrssituation sicher.
7 22
3 23
Unfalldokumentation und Unfallvermeidungsforschung
Bei der Dokumentation von Verkehrsunfällen kommt
es auf Schnelligkeit an bei gleichzeitiger hoher Genauigkeit
sowie einer umfassenden Aufnahme der Szene. white_c setzt
dazu Laserscanner der neuesten Generation ein. Laserscanner
erfassen die gesamte Umgebung und bilden sie im digitalen
Modell dreidimensional ab. Einzelscans verschiedener Standorte verbinden sich zu einem räumlichen Gesamtmodell, so
dass selbst komplexe Objekte und Szenen umfassend und
präzise dokumentiert werden. Das Alleinstellungsmerkmal
des 3D-Laserscanning im Vergleich zu anderen Messmethoden besteht in der ganzheitlichen Aufnahme des Szene und
der Multifunktionalität der Datenauswertung.
Durch Übernahme aller relevanten Daten in unsere Fahrsimulation, die über eine integrierte Physik-Komponente verfügt, können wir eine vollständige Bewegungsanalyse durchführen. Neben der statischen Dokumentation des Ist-Zustandes
am Unfallort erhalten wir dadurch eine objektive Grundlage
zur Durchführung einer Vermeidbarkeitsanalyse. Die PhysikKomponente bildet alle Kräfte auf Fahrzeuge und andere
betroffene Objekte realitätsgetreu nach. Mithilfe der Visualisierungskomponente können diese direkt in die zuvor erfasste
Szene gesetzt werden. In einer Animation aus unterschiedlichen Blickwinkeln kann so der tatsächliche Unfallverlauf
rekonstruiert werden. Unterschiedliche Geschwindigkeiten,
Reibungswerte (Bereifung), Verzögerungskräfte (Bremsen)
und andere technische Rahmenbedingungen können anwendet werden, um Unfallfaktoren zu analysieren und eine (technische) Vermeidbarkeitsanalyse durchzuführen.
Zur vergleichenden Analyse menschlicher Faktoren bei
der Ursachenermittlung von Unfällen wird die Szene vollständig in den Fahrsimulator überführt. Anschließend werden
mit Probanden Versuche unter kontrollierten Bedingungen
durchgeführt. Technische Faktoren, die zuvor in der Unfallrekonstruktion ermittelt wurden, können im Fahrsimulator
nachgestellt werden. Dadurch wird eine gegenseitige Validierung der abgeleiteten Implikationen zur Ursache erreicht.
Menschliche Faktoren beinhalten Fahrkompetenz und Fahrperformanz (z. B. unter Einflüsse von Rauschmitteln).
Algorithmen –
Fundament der Informatik
Die moderne Informationstechnologie verdankt ihren
Aufschwung der Möglichkeit, Berechnungen immer
schneller durchzuführen. Parallelisierungen und
schneller getaktete Prozessoren treten in ihrem
Einfluss aber deutlich hinter den Anteil zurück, den
effiziente Algorithmen haben. Während erstere nur
linear die Rechengeschwindigkeit steigern können,
sind dem Erfindergeist der Informatiker massiv
stärkere Steigerungen gelungen.
Das Max-Planck-Institut für Informatik widmet sich
der Entwicklung und Verbesserung von Algorithmen
in allen seinen Forschungsschwerpunkten. Neue
Erkenntnisse, die in Veröffentlichungen auf höchstem
wissenschaftlichen Niveau der Öffentlichkeit
zugänglich gemacht werden, sowie die Heranbildung
von akademischem Nachwuchs, sorgen nachhaltig
dafür, dass immer bessere, schnellere und vor allem
zuverlässigere Berechnungsverfahren im Bereich
Informationstechnologie Einzug in die vielfältigen
Einsatzgebiete der Informatik halten.
Forschungsspektrum
Ÿ Grundlagenforschung (Algorithmen und
Komplexität, Logik der Programmierung)
Ÿ Computergrafik
Ÿ Geometric Computation
Ÿ Constraint Solving
Ÿ Programmverifikation
Ÿ Datenbanken und Informationssysteme
Ÿ Bioinformatik und Angewandte Algorithmik
Ÿ Automatisierung der Logik
MPI-INF
Campus E1 4
www.mpi-inf.mpg.de
Interdisziplinäre Synergien
Die beschriebenen Projekte bearbeiten wesentliche Teilaspekte der Mobilität. Mobilität der Zukunft wird aber insbesondere aus dem synergetischen Zusammenspiel einer Vielzahl von Komponenten entstehen. Aus der Zusammenarbeit
der unterschiedlichen Disziplinen in der Zukunftswerkstatt
Mobilität sind bereits erste interdisziplinäre Ansätze entstanden, die es nun weiter auszubauen gilt. So wird gemeinsam
an Mobilitätsanwendungen und Simulationsdienstleistungen
für den Rehabilitationsbereich gearbeitet, die es ermöglichen,
individuelle Mobilität zu Fuß, per Rad oder per Automobil
auch bei körperlichen Einschränkungen zu fördern.
Nichtsdestotrotz können die bisherigen Aktivitäten nur
einzelne Elemente einer zukünftigen Mobilität adressieren.
Technische Ansätze müssen durch Änderungen im Nutzerverhalten ebenso wie von politischen Rahmenbedingungen
ergänzt werden. Eine Ausweitung und weitere interdisziplinäre Vernetzung der Zukunftswerkstatt Mobilität im Universitätsumfeld wird daher angestrebt und dem Zukunftsthema
Mobilität die Bedeutung zukommen lassen, die ihm gebührt.
2050, vielleicht: »Die Städte sind grün, lebenswert,
fußgänger- und radfahrerfreundlich und ermöglichen
vielfältige multimodale Mobilitätsmöglichkeiten ...« [7]
Referenzen:
1.
http://de.wikipedia.org/wiki/Mobilität, 18.04.2013
2.
Stockburger, C.: Apokalypse Stau, Spiegel Online, 13.03.2012
3.
Deutscher Bundestag: Schlussbericht Globalisierung der Weltwirtschaft, 2002
4.
European Energy Agency: TERM 2009
5.
Weltkommission für Umwelt u. Entwicklung: Our Common Future (Brundtland-Bericht), 1987
6.
McKinsey Global Institute: The Carbon Productivity Challenge, 2008
7.
Fraunhofer ISI: Vision für nachhaltigen Verkehr in Deutschland (VIVER), 2011
Ihr Weiterbildungspartner
■
■
■
■
■
■
Argumentations- und Überzeugungstechnik
Konfliktstrategie
Mitarbeiter erfolgreich führen
Existenzgründerseminar
Workshop "So erstellen Sie Ihren
eigenen Businessplan"
Präsentieren und Moderieren
Infos: Cornelia Fauss, 0681 5809-132
[email protected]
Diese Anzeige wurde gefördert durch das Ministerium für Wirtschaft, Arbeit, Energie und Verkehr des
Saarlandes.
V
Prof. Dr.-Ing. Michael
ielhaber
hatte seit 1994 nach einem Maschinenbau-Studium in
der Industrie unterschiedliche, teils leitende Tätigkeiten in
den Bereichen Konstruktion, Produktentwicklung und Engineering-IT inne. 2005 schloss er seine Industriepromotion
im Bereich Entwicklungsmethodik ab. Berufsbegleitend
absolvierte er darüber hinaus ein Studium des Wirtschaftsingenieurwesens.
Seit 2010 hat er an der Universität des Saarlandes den
Lehrstuhl für Konstruktionstechnik inne und bildet damit
mit weiteren Lehrstühlen das Kompetenzfeld Produkt- und
Produktionsentwicklung.
Gemeinsam mit Dr. Christian Müller vom DFKI leitet er die »Zukunftswerkstatt Mobilität«, eine Forschungsund Testplattform der Universität des Saarlandes und des
DFKI für innovative Technologien für die Mobilität von morgen.
M
Dr. Christian
üller
promovierte 2005 im Fach Informatik an der Universität
des Saarlandes. Im Anschluss absolvierte er von 2006 bis 2008
als Stipendiat ein zweijähriges Post-Doc-Programm an der
renommierten University of California Berkeley. Er ist Autor
und Koautor zahlreicher wissenschaftlicher Publikationen
und erhielt dafür mehrere Auszeichnungen.
Derzeit arbeitet der Wissenschaftler im DFKI-Forschungsbereich »Intelligente Benutzerschnittstellen« und ist Leiter
der Automotive-Gruppe. Als so genannter »Action Line Leader Intelligent Mobility and Transportation Systems« ist er
maßgeblich verantwortlich für das Programm der europäischen »Knowledge and Innovation Community« EIT ICT Labs
mit Partnern wie Deutsche Telekom, Siemens, SAP, Nokia,
Ericsson, Philipps, France Telecom, Telecom Italia sowie
führenden Universitäten und wissenschaftlichen Instituten.
Dr. Christian Müller wurde am 04. Oktober 2012 zum
DFKI Research Fellow ernannt. Anlässlich seiner Ernennung
hielt er den Vortrag »Von der Mensch-Maschine-Interaktion
zur Mensch-Maschine Kooperation: Neue Herausforderungen für Automobile Intelligente Benutzerschnittstellen?«.
Maßgeschneiderte Sehqualität durch
experimentelle Grundlagenforschung
Prof. Dr. Achim Langenbucher
Dipl.-Phys. Marc Kannengießer
Experimentelle Ophthalmologie
An der Schnittstelle von Medizin und Technik hat sich die
Experimentelle Ophthalmologie als eine neue,
maßgeblich die erfolgreiche Forschung auf dem Gebiet
der Augenheilkunde bestimmende Disziplin etabliert.
Am Universitätsklinikum des Saarlandes in Homburg ist
es der Initiative des Direktors der Augenklinik, Professor
Berthold Seitz, zu verdanken, dass im September 2009
das Institut für Experimentelle Ophthalmologie (XO)
gegründet und damit der Grundstein für die Stiftungsprofessur für experimentelle Ophthalmologie gelegt
wurde. Professor Achim Langenbucher, der 2009 den Ruf
nach Homburg angenommen hat, leitet dort seither ein
internationales Team von Wissenschaftlern aus Elektround Biomediziningenieuren, Feinwerktechnikern und
Laserphysikern. Dieses deutschlandweit einzigartige
interdisziplinäre Team bearbeitet unter vielfältigen
wissenschaftlichen Aspekten Problemstellungen aus
dem klinischen Alltag. Der vorliegende Beitrag vermittelt einen kurzen Überblick über die aktuelle Forschung.
Das Team:
Benedikt Zelzer, Alexis Speck,
Edgar Janunts, Melanie Gillner,
Marc Kannengiesser,
Achim Langenbucher, Timo Eppig
(v.l.n.r.) lassen sich von ein paar
Experimentelle Ophthalmologie
Schneeflocken nicht erschrecken
7 24
3 25
Der Graue Star – eine häufige Erkrankung im Alter
Durch den medizinischen Fortschritt steigt die Lebenserwartung in Europa und auch weltweit. In Europa bedeutet
dies, dass bei 40 % der älteren Menschen die Linse im Auge
eintrübt, es kommt zum sogenannten grauen Star (Katarakt).
Beim grauen Star trübt sich die Linse langsam ein bis der
Mensch nur noch graue Schatten sehen kann und die Umwelt
undeutlich bis gar nicht mehr wahrnimmt. Heute werden weltweit etwa 20 Millionen Kataraktoperationen pro Jahr durchgeführt. Bei einer Kataraktoperation wird dem Patienten die
trübe, eigene Linse mit einem speziellen mikrochirurgischen
Verfahren (Phakoemulsifikation) entfernt und eine künstliche Intraokularlinse (IOL) eingesetzt. Diese Operation zählt
heute zu den Standardoperationen und wird hauptsächlich
ambulant durchgeführt.
Viele namhafte national und international tätige Firmen
haben Intraokularlinsen entwickelt, auch sind sie in vielen verschiedenen Geometrien und Materialien erhältlich.
Neben rotationssymmetrischen Intraokularlinsen werden seit einigen Jahren auch torische IOL zur Korrektur
des Astigmatismus angeboten. Einige Hersteller bieten
neben sphärischen IOL auch solche mit einer ellipsoiden
Rotationssymmetrie zur Korrektur sphärischer Aberrationen
(= rotationssymmetrischer Abbildungsfehler) des mensch-
lichen Auges an. In keinem Fall werden jedoch Intraokularlinsen zur Korrektur der individuellen Abbildungsfehler des
Auges eines einzelnen Patienten offeriert. Als Messgerät zur
Bestimmung der für einen Patienten geeigneten StandardIntraokularlinse hat sich der IOL-Master von Zeiss-Meditec
durchgesetzt. Dieses Gerät ist jedoch nicht in der Lage, die
Abbildungsfehler des menschlichen Auges zu analysieren
und/ oder den künftigen Sitz der zu implantierenden IOL
präzise vorherzusagen.
Die Entwicklung immer präziserer Dreh- und Fräsmaschinen hat in den letzten Jahren dazu geführt, dass Kontaktlinsen
und Intraokularlinsen mit Oberflächen in optischer Qualität
gedreht werden können ohne anschließende Politur. Dies ist
Voraussetzung für die Entwicklung individueller Intraokularlinsen, bei denen erstmals Oberflächen in nahezu beliebiger
Geometrie gefertigt werden müssen. Die derzeit gültige Norm
für die Vermessung von Intraokularlinsen und die dafür verfügbaren Messinstrumente eignen sich uneingeschränkt nur
für sphärische, torische und multifokale IOL-Optiken. Bereits
für die Messung der in den letzten Jahren eingeführten asphärischen IOL-Optiken sind diese Messverfahren nur bedingt
geeignet. Für die abschließende Vermessung der individuellen
IOL ist daher die Entwicklung eines geeigneten Messverfahrens unverzichtbar.
Entwicklung neuartiger, individueller
implantierbarer Linsen für die Kataraktchirurgie
Hier leistet die XO einen essentiellen Beitrag: Durch eine
Vielzahl an Berechnungen ist es möglich, eine IOL-Oberfläche
derart herzustellen, dass die übrigen Sehfehler des Patienten
korrigiert werden und die bestmögliche Sehleistung erreicht
wird. Diese Art der IOL gilt als Premium-Medizinprodukt
der nächsten Generation, denn sie wird individuell auf das
Auge des jeweiligen Patienten maßgeschneidert. In diesem
Zusammenhang steht der Ausspruch »Maßgeschneiderte
Sehqualität«.
Die Forschungsgruppe XO in Homburg arbeitet derzeit an der Simulation und Entwicklung einer Intraokularlinse (IOL), welche die individuellen optischen Fehler des
Erforderlich hierfür ist die Komposition und Validierung
einer mathematischen Strategie und Implementierung in ein
Softwarepaket, mit denen sich aus den Messergebnissen der
Patientenuntersuchung die Geometrie einer adäquaten Intraokularlinse berechnen lässt, welche die Abbildungsfehler
des Auges bestmöglich korrigiert.
Das Design einer Intraokularlinse, deren Optik aufgrund der geometrischen Konstruktion ihrer Verankerung
im Auge (Haptik) nach der Implantation die prognostizierte
Position im Auge einnimmt und sich dort stabilisiert, also
Dislokationen wie Dezentrierung, axiale Verschiebung oder
Verkippung/Rotation vermeidet ist eine ebenso entscheidende Voraussetzung wie die Entwicklung eines Messsystems
einschließlich Programmierung und standardisiertem Messprotokoll zur Qualitätskontrolle der individuellen IOL und
einer für ein Medizinprodukt der Klasse IIb (Sonderanfertigung für individuelle Patienten) erforderlichen Technischen
Dokumentation einschließlich Prüfungen und Bewertungen.
a)
b)
c)
d)
a)
b)
Abb. 2 a ) – d ): Simulation von Freiform-IOL-Topographien und deren Aberrationen
c)
Abb. 1 a)–c): Experimentelle Evaluierung von Freiform IOL-Oberflächen
mit modernster Mikroskoptechnologie und optischer
Kohärenztomographie (OCT)
Patientenauges vollständig korrigiert. Eine erfolgreiche
Durchführung des Projektes erfordert die Entwicklung eines
diagnostischen Verfahrens, mit dem die Abbildungsfehler des
menschlichen Auges vollständig gemessen werden können
und die Ableitung einer Vorschrift, mit der die Position des
Kunstlinsenimplantates im Auge nach der Kataraktoperation
zuverlässig vorhergesagt werden kann.
Entwicklung von Arbeitsschutzbrillen mit verbesserter
und reproduzierbar herstellbarer Abbildungsqualität
Arbeiten oder Tätigkeiten im potentiellen Gefahrenbereich chemischer Substanzen oder im Bereich, in dem die Möglichkeit einer mechanischen oder thermischen Verletzung vorliegt, müssen laut der geltenden berufsgenossenschaftlichen
Verordnung (BGV A 1 ) mit einem adäquatenAugenschutz durchgeführt werden. Der Tragekomfort der Brillen(-fassungen)
hat sich in den vergangenen Jahren deutlich verbessert, was
in erster Linie auf neuartige Werkstoffe für die Brillenfassung
zurückzuführen ist. So wurde vor einigen Jahren der technisch
anspruchsvolle 2-Komponenten-Spritzguss eingeführt, der im
empfindlichen Kontaktbereich zwischen Haut und Fassung
weichere und hautfreundlichere Materialien ermöglicht im
Vergleich zu Teilen der Fassung, welche eine hohe Stabilität
aufweisen müssen. Der Schwerpunkt der normativen Anforderungen für Arbeitsschutzbrillen zielt weitestgehend auf die
Schutzwirkung, das heißt die Brillen müssen bestimmten Tests
wie einem mechanischen Beschuss mit Metallkugeln oder
chemisch aggressiven Substanzen widerstehen. Die Anforderungen an die optische Performance der Brillen beziehen sich
überwiegend auf die refraktive Nullwirkung und Transparenz
der Scheiben (DIN EN 166), spielen jedoch im Vergleich zur
Schutzwirkung eine eher untergeordnete Rolle.
Oft wird eine Schutzbrille jedoch nicht akzeptiert, da das
Sichtfeld eingeschränkt ist oder optische Verzerrungen der
Scheiben die Sicht durch die Brille derart beeinträchtigen,
dass Ermüdungserscheinungen, Spannungskopfschmerz und
Konzentrationsverlust die Folge sind und die Tätigkeit nicht
zufriedenstellend ausgeführt werden kann. So wird nicht
selten auf eigene Gefahr auf einen Augenschutz komplett
verzichtet, wenn die Qualität der Arbeit durch das Tragen der
Brille, speziell durch optische Verzerrungen, beeinträchtigt ist.
a)
b)
Experimentelle Ophthalmologie
Abb. 3 a), b): Aufbau und Messung von abbildungsoptimierten Schutzbrillen
7 26
3 27
Wird der geforderte Augenschutz nicht getragen, so können schwere, zum Teil irreversible Verletzungen des Auges
resultieren: Wichtig zu nennen sind hierbei chemische Verätzungen durch Säuren oder Laugen, stumpfe oder perforierende Traumata bis hin zum Platzen des Bulbus aufgrund
von mechanischen Irritationen, oder auch Verbrennungen bei
exzessiven thermischen Belastungen.
Während refraktionskorrigierende Brillen in aller Regel
auf eine gute Abbildungsqualität hin optimiert sind und optisch störende Phänomene minimieren, wurden Schutzbrillen
in der Vergangenheit hauptsächlich auf die Schutzwirkung
hin optimiert und Gesichtspunkte wie die optische Abbildungsqualität beim Blick durch die Brille spielten eine untergeordnete Rolle. So können neben Achsenfehlern aufgrund
eines prismatischen Effektes der Scheiben auch Fehler wie
Defokus, Astigmatismus oder Aberrationen höherer Ordnung auftreten. Speziell Aberrationen höherer Ordnung wie
Koma, Dreiblattfehler, oder auch sphärische Aberrationen
sind dafür verantwortlich, dass die optische Qualität einer
Schutzbrille trotz Konformität zur bestehenden Norm unzureichend ist und bei Arbeiten mit gefordertem Augenschutz
nicht zuverlässig getragen wird.
Bei der Konzeption neuartiger Schutzbrillen marktführender deutscher Firmen ist die Experimentelle Ophthalmologie (XO) maßgeblich beteiligt. Ihre Vision ist eine Schutzbrille, die nicht nur sicher, sondern angenehm zu tragen ist.
Um die bisherigen Ansprüche an optischer Qualität noch
zu übertreffen, werden modernste Simulationsprogramme
genutzt, die die Oberflächenbeschaffenheit der Brillen und
deren Auswirkungen präzise simulieren.
Im Rahmen des Projektes »Improved Vision for Occupational Eye Safety« soll eine Prozesskette vollständig abgebildet werden, die von der Simulation und Berechnung neuer
Scheibendesigns über die Optimierung und Vermessung
der Spritzgussformen (Spiegeleinsätze) bis hin zur fertigen
Arbeitsschutzbrille reicht. So sollen neue, abbildungsoptimierte Designs für Schutzscheiben entwickelt werden, die
aufgrund des höheren Tragekomforts deutlich besser vom
Anwenderkreis akzeptiert werden als herkömmliche Arbeitsschutzbrillen.
Für die Entwicklung abbildungsoptimierter Scheiben
sollen die Einflussgrößen bei der Umsetzung der Optikdesigns in Spiegeleinsätze evaluiert und hochpräzise Messsysteme für die optische Vermessung implementiert werden.
Darüber hinaus sollen die Polierprozesse zur Regeneration
der Spiegeleinsätze optimiert, sowie das Abformverhalten im
Spritzgussprozess und die Einflussgrößen der Beschichtung
untersucht werden.
b)
a)
Abb. 4 a), b) : F E M -Simulation und Modellierung neuartiger Schutzbrillendesigns
Am Ende der Prozesskette sollen die Scheiben vor und
nach der Assemblierung in die Brillenfassungen optisch vermessen werden, um mechanische Spannungen der Scheiben
im Brillengestell zu erfassen. Hierfür wurde in einem vorangegangenen Projekt bereits ein Messsystem entwickelt, mit
dessen Hilfe die Wellenfrontaberrationen von Arbeitsschutzbrillen im verwendungsrichtigen Zustand, d. h. mit aufgeweiteter Fassung und unter verschiedenen Durchblickpunkten,
gemessen werden können.
a)
Zusammenarbeit über fachliche und institutionelle
Grenzen hinweg
Trotz der Zugehörigkeit zur Medizinischen Fakultät ist
die Forschung der XO interdisziplinär und ingenieurwissenschaftlich geprägt. Dies wird durch zahlreiche Kooperationen
mit namhaften Industriepartnern unterstrichen. Das Institut
ist aber auch Anlaufstelle für gutachterliche Stellungnahmen
bei allen das Auge betreffenden Bereichen.
Der naturwissenschaftliche Hintergrund erlaubt die Rekonstruktion und Simulation einer Vielzahl von Szenarien,
wie das Tragen von (Schutz-)Brillen oder Linsen, um aussagekräftige Beurteilungen abzugeben. Ein Beispiel hierfür ist
die Entwicklung von Systemen zur Durchführung von Belastungstests von Brillen unter Projektilbeschuss.
b)
Abb. 5 a), b): Konzeptskizze und Umsetzung eines Aufbaus
für Untersuchungen von Schutzbrillen unter
Projektilbeschuss
Softwaresysteme –
Rückgrat der vernetzten Welt
L
Prof. Achim
angenbucher
ist Ingenieur für Elektrotechnik, wurde an der Universität
Erlangen in Augenheilkunde promoviert und habilitierte sich
dort in der experimentellen Ophthalmologie. Damit vereint
Langenbucher in seiner Person die Kombination, die für eine
erfolgreiche Forschung auf dem Gebiet der Ophthalmologie
maßgeblich ist: die Schnittstelle von Medizin und Technik.
Der Experte für Medizinische Physik nahm 2009 den Ruf
an die Universitätskliniken des Saarlandes an und ist seither
Leiter des Instituts für Experimentelle Ophthalmologie.
Computersysteme bilden mittlerweile den Kern in
sehr vielen wichtigen Prozessen in Wirtschaft,
Wissenschaft und Administration. Sie durchdringen
das tägliche Leben mehr und mehr. Mit wachsender
Komplexität wird deren direktes Verständnis für den
Einzelnen schwierig bis unmöglich.
Ein großer Schwerpunkt des Max-Planck-Instituts für
Softwaresysteme besteht darin, das wissenschaftliche
Fundament, also die Grundlagen von Softwaresystemen zu legen. Unsere Forscher entwickeln
neuartige Methoden, Technologien und Werkzeuge,
die die Möglichkeiten bei Design, Analyse und Betrieb
von sicheren und zuverlässigen Softwaresystemen
verbessern.
Hierbei erforscht ein Team von internationalen
Wissenschaftlern grundlegende Strukturen und
Verknüpfungen von Softwaresystemen, um die
störungsfreie und eindeutige Kommunikation von
Systemen zu gewährleisten.
K
Experimentelle Ophthalmologie
Dipl.-Phys. Marc
annengießer
studierte Physik an der TU Kaiserslautern, wo er 2010
seine Diplomarbeit auf dem Gebiet der Terahertz-Messtechnik am Fraunhofer IPM schrieb. Im Rahmen seiner Promotion
entwickelt er seit Mitte 2010 am Institut für Experimentelle
Ophthalmologie neuartige Lösungen für Intraokularlinsen
und deren Qualitätsmanagement. Im Rahmen einer EU-geförderten Kooperation mit der Klinik für Hals-, Nasen- und
Ohrenheilkunde am UKS erforscht er neuartige Hörprothesen
auf Basis modernster Lasertechnologie.
7 28
3 29
Forschungsspektrum
Ÿ Grundlagenforschung in Sprachdesign,
Analyse, Modellierung, Einführung und
Auswertung von Softwaresystemen
Ÿ Systemprogrammierung
Ÿ Vergleich von dezentralen und
Netzwerksystemen sowie von
eingebetteten und autonomen Systemen
Ÿ Aspekte der formalen Modellierung,
Analyse, Sicherheit und Stabilität von
modernster Softwaretechnik
Standorte
Kaiserslautern
Saarbrücken
MPI-SWS
Campus E1 5
www.mpi-sws.org
Historische Wirtschaftskrisen als
Lehrstücke – Investitionen in
die Realwirtschaft zahlen sich aus
Professor Dr. Margrit Grabas
Dr. Veit Damm
Wirtschafts- und Sozialgeschichte (einschließlich Technik- und Umweltgeschichte)
Aus Krisenzeiten können Staaten sogar gestärkt hervorgehen, wenn richtige Weichen gestellt und gute
Entscheidungen getroffen werden. Was in der Krise hilft
und was eher schädlich ist, erforschen Saarbrücker
Wirtschaftshistoriker: Professor Margrit Grabas und ihr
Team untersuchen historische Wirtschaftskrisen und
ziehen Lehren aus der Vergangenheit für die Zukunft.
Kurz vor dem Abschluss steht jetzt ein Projekt über
Konjunktur- und Strukturkrisen der Jahre 1966 bis 1982,
das die Deutsche Forschungsgemeinschaft (DFG) fördert.
Das Projekt hat in wirtschafts- und sozialhistorischer
Perspektive die Untersuchung der Rezessionen von 1966/67,
1974/ 75 und 1981/ 82 zum Gegenstand. Es nimmt mit dem
Saarland eine Region in den Blick, die in diesem Zeitraum
ein typisches Beispiel für die Überlagerung montanindustrieller Strukturkrisen und mehrerer konjunktureller Einbrüche
darstellte. Analysiert werden weiterhin die Krisenbewältigungsstrategien durch die Politik und die Wirtschaft, wobei
im Untersuchungsgebiet neben der Subventionierung der
alten Industrien zur Gewährleistung eines sozialverträglichen
Abbaus der Arbeitskräfte sowie zur Förderung des Strukturwandels die Institutionalisierung einer verstärkten Kooperation im Saar-Lor-Lux-Raum sowie die Förderung von
Clusterbildungen eine zentrale Rolle spielten.
punkt zunehmend sozial konstruierte Wirklichkeit, sondern
zugleich auch kommunikativ beschleunigte oder blockierte
Prozesse des Lernens und der Neuorientierung. Insofern sind
Wirtschaftskrisen sowohl Ereignis als auch Prozess und in
dieser Einheit wiederum struktureller Baustein eines längerfristigen Prozesses.« 2
Dabei besitzt jedoch nicht jede Wirtschaftskrise gleichermaßen sozioökonomisches Veränderungspotential. »Während
konjunkturell bedingte Rückschläge industriell-marktwirtschaftlicher Entwicklung lediglich dazu beitragen, ökonomische Verhaltenspfade wachstumsrelevant zu stabilisieren oder
entlang einer strukturell gegebenen Produktionsfunktion zu
verbreitern, leiten Strukturkrisen in der Regel einen grundlegenden Wandel (markt-)wirtschaftlicher Strukturen und
institutioneller Regelmechanismen ein. Hintergrund bildet
sowohl eine (relative) Erschöpfung wachstumstragender Basisinnovationen als auch eine Verkrustung verhaltensorientierender Normen- und Wertesysteme, so dass die daraus resultierende Destabilisierung des Wachstums steigende soziale
– politisch brisante – Kosten generiert. Strukturkrisen treten
zwar zunächst als kurzfristiger konjunktureller Rückschlag in
Erscheinung, weisen aufgrund ihres transformatorischen und
globalen Charakters aber schon bald einen gesellschaftsübergreifenden Ausprägungsgrad auf.«3
Was sind Wirtschaftskrisen?
Krisen werden im Projekt als historische, »ganz direkt und
unmittelbar von den zeitgenössischen Akteuren wahrgenommene und erlebte – durch Unsicherheit und Verlust geprägte
– Wirklichkeit« verstanden, die »eine auf kurze Zeit zusammengedrängte, emotional verdichtete Steuerungsrelevanz individuellen und kollektiven Verhaltens« besitzen.1 Moderne
Wirtschaftskrisen stellen eine spezifische Erscheinungsform
konjunktureller Abschwungsbewegung marktwirtschaftlichen Wachstums dar. »Aufgrund ihrer Folgewirkungen können sie als Achillesferse des industriekapitalistischen Systems
bezeichnet werden: Sie verursachen nicht nur – mehr oder weniger – dramatische Vermögens-, Gewinn- und Einkommensverluste, Arbeitsplatzabbau, Investitionsrückgänge sowie Import- und Exporteinbrüche, sondern destabilisieren zugleich
das Vertrauen in Institutionen sowohl des Wirtschaftslebens
als auch von Politik und Gesellschaft. Sowohl Entstehung als
auch Verlaufsdynamik von Wirtschaftskrisen sind an soziokulturell eingebettete und institutionell-politisch sanktionierte Akteursentscheidungen in Vergangenheit und Gegenwart
gebunden, die letztlich immer kommunikativ vermittelt und
zukunftsrelevant sind. Wirtschaftskrisen sind damit nicht nur
kommunikativ transportierte und ab einem bestimmten Zeit1.
Grabas, Wandel, Krise, Umbruch, S. 17 ff.
2.
Dies., Wirtschaftskrisen in soziokultureller Perspektive, S. 282 f.
Das Beispiel des Saarlands:
Die Wirtschaftskrisen der »langen« 1970er Jahre
Die saarländische Wirtschaft durchlief in den »langen«
1970er Jahren eine krisenhafte Entwicklung, die Wirtschaftspolitik und Unternehmen vor neue Herausforderungen
stellte. Die Struktur der Wirtschaftsregion wandelte sich, die
Bedeutung des Stahlindustrie sank und eine Vielzahl von
Einzelunternehmen der Branche verschmolz zu einem Gesamtunternehmen. Werke wurden stillgelegt und tausende
Beschäftigte entlassen. Die krisenhaften Unternehmensentwicklungen der »langen« 1970er Jahre führten zu Rationalisierungen und Spezialisierungen, die eine Kontinuität des
saarländischen Stahlproduktions-Standorts – wenn auch
3.
Grabas, Wirtschaftskrisen in soziokulturell er Perspektive, S. 282 f. Vgl. aber auch:
Dies., Die Gründerkrise von 1873/ 79 – Fiktion oder Realität?, S. 85.
in einer anderen Gestalt – ermöglichten. Der Fusions- und
Modernisierungsprozess wurde jedoch von Belegschaft und
Gewerkschaft keineswegs nur positiv aufgefasst, sondern vielmehr häufig als Bedrohung empfunden. In den 1980er Jahren
machte sich eine ausgeprägte Krisenstimmung breit, die den
Restrukturierungsprozess entscheidend beeinflusste.
Abb. 1: Wachstumsraten des Bruttoinlandsproduktes in der Bundesrepublik und
dem Saarland von 1965–1984*
Abb. 2: Die Entwicklung der Arbeitslosenquote in der Bundesrepublik und im
Wirtschafts- und Sozialgeschichte
Saarland (1965–1984)**
7 30
3 31
Im Projekt konnte gezeigt werden, dass durch die Dominanz
der Stahlindustrie eine erhöhte Konjunkturreagibilität des
saarländischen Wirtschaftsstandorts bestand, die im Untersuchungszeitraum krisenhaft ausgeprägt war. Durch die
Ansiedlung der Autoindustrie – einer weiteren stark konjunkturabhängigen Branche – ist dieses Merkmal auch in den
folgenden Jahrzehnten – bis zur Gegenwart – prägend. Dies
ist unter den Rahmenbedingungen der sozialen Marktwirtschaft der BRD jedoch keineswegs einseitig als Nachteil des
Standorts zu bewerten, da die Wirtschaft des Saarlandes in
Konjunkturhochphasen und bei der Vergabe von staatlichen
Konjunkturprogrammen wiederholt überdurchschnittlich
stark profitierte. Allerdings ist die saarländische Bevölkerung
aufgrund der regionalwirtschaftlichen Strukturmerkmale auf
diese Weise auch immer wieder großen – mitunter existenzbedrohenden – Belastungen ausgesetzt.
Innerhalb der bundesdeutschen Wirtschaftspolitik nahm
das Saarland immer eine besondere Stellung ein. Dies resultierte zu einem großen Teil aus der Wiedereingliederung des
nach dem Krieg französisch besetzten Landes in die Bundesrepublik seit 1957/ 59, die nicht zuletzt durch wirtschaftliche Maßnahmen unterstützt werden sollte. Die praktisch
gleichzeitig einsetzende Kohlekrise, die man wohl als erste
Strukturkrise der sich noch in einer historisch einzigartigen
Prosperitätsphase befindenden bundesdeutschen Wirtschaft
bezeichnen kann, hat erst im Zusammenhang mit der Rezession von 1966/ 67 und in erster Linie durch ihre Auswirkungen
auf das Ruhrrevier breitere Aufmerksamkeit in der bundesrepublikanischen Öffentlichkeit gefunden. Allerdings konnte
gezeigt werden, dass im Saarland – im Gegensatz zu fast allen
anderen Regionen in der Bundesrepublik – bereits während
dieser Rezession keine Vollbeschäftigung mehr existierte.
Es kann daher auch nicht überraschen, dass die Regierung des Saarlandes bereits früh eine aktive Industriepolitik
betrieb. Mit der Ansiedlung der Fordwerke in Saarlouis –
die Grundsteinlegung erfolgte am 16.09.1966 – gelang schon
früh ein erster Erfolg, der auch tatsächlich sozioökonomische
Kopplungseffekte auslöste; weitere Unternehmen folgten. So
entstanden im Saarland durch die Förderung von Industrieneuansiedlungen zwischen 1968 und 1973 knapp 40.000 neue
Arbeitsplätze, besonders im Fahrzeug- und Maschinenbau. Es
begann ein intraindustrieller Strukturwandel, in dem die Investitionsgüterindustrie einen herausragenden arbeitsmarktrelevanten Stellenwert erhielt – akzeleriert durch die Mitte der
1970er Jahre ausbrechende Stahlkrise löste sie schließlich die
Montanbranche als wichtigsten Arbeitgeber des Landes ab.
Das Saarland durchlief aufgrund der im bundesdeutschen
Vergleich schärferen Rezession von 1966/ 7 – so eines der
Hauptergebnisse des Projekts – insofern schon wesentlich
früher strukturelle Anpassungsprozesse an veränderte
Marktbedingungen als andere Bundesländer. Zwar konnte
auf diese Weise die Rezession von 1974/ 5 abgeschwächt, nicht
aber – wie die Entwicklungen bei Röchling zeigen – die erst
www.knf.de
MEMBRANPUMPENTECHNOLOGIE VOM FEINSTEN...
쮿 Ob für Gase, Dämpfe
oder Flüssigkeiten –
KNF Neuberger bietet
ein breites Angebot an
Pumpen und Systemen.
쮿 Für unverfälschtes Fördern, Dosieren, Komprimieren und Evakuieren.
쮿 Als OEM- oder tragbare
Ausführungen.
쮿 Mit einem variablen
Produktprofil für kundenspezifische Lösungen.
KNF Neuberger GmbH
Alter Weg 3 ı D 79112 Freiburg ı Tel. 07664/5909-0 ı Fax -99 ı E-Mail: [email protected]
von diesem Zeitpunkt an mit ganzer Wucht sich entfaltende
Strukturkrise in der Eisen- und Stahlindustrie abgewendet
werden.4 Dadurch erhielt die Restrukturierung der saarländischen Wirtschaft nicht nur eine neue Qualität, sondern zugleich – verstärkt durch die Auswirkungen der internationalen
Rezession von 1981/ 2 – eine langfristige Folgedimension.
Literatur
—
Margrit Grabas, Uwe Müller, Veit Damm, Die Stunde der Restrukturierung.
Die Konjunktur- und Strukturkrisen der »langen« 70er Jahre im Saarland, in: B. Kasten (Hg.),
Historische Blicke auf das Land an der Saar. 60 Jahre Kommission für Saarländische
Landesgeschichte und Volksforschung, Saarbrücken 2012, S. 447–478
—
Margrit Grabas, Wirtschaftskrisen in soziokultureller Perspektive. Plädoyer für eine
kulturalistisch erweiterte Konjunktur(geschichts)forschung, in: Geschichte und Gesellschaft.
Sonderhefte, Heft 24: Kulturen der Weltwirtschaft, hrsg. v. Abelshauser, W. / Gilgen,
D. / Leutzsch, A., Göttingen 2012, S. 261–283
—
Margrit Grabas, Die Gründerkrise von 1873/ 79 – Fiktion oder Realität? Einige Überlegungen
im Kontext der Weltfinanz- und Wirtschaftskrise von 2008/ 9, in: Jahrbuch für Wirtschaftsgeschichte 2011/ 1. Konjunkturen und Krisen in der neueren Geschichte, S. 69–96
—
Veit Damm, Europäische Kooperation als Krisenstrategie? Die wirtschaftliche Zusammenarbeit
in der Region Saarland-Lothringen-Luxemburg 1967–1990, in: C. Lehberger /
L. Rampeltshammer (Hg.), Einfluss der Europäischen Union auf die Gestaltung der Arbeitswelt, Saarbrücken 2012, S. 31–58
—
Veit Damm, Währungsturbulenzen und Arbeitsmarkt in Europa in den 1970er Jahren.
Zur Änderung der Parität von D-Mark und Franc und den Folgen für den grenzübergreifenden
deutsch-französisch-luxemburgischen Arbeitsmarkt, in: Internationale Wissenschaftliche
Vereinigung Weltwirtschaft und Weltpolitik (IWVWW) – Berichte 192 / 193 (2011), S. 95–105
—
aus wirtschafts-, sozial- und innovationshistorischer Perspektive, in: Fondation Bassin Minier
Abb. 3: Rohstahlproduktion der Röchling’schen Eisen- und Stahlwerke und
(Hg.), Mutations, 3. Jg., Luxemburg 2012, S. 11–23
Folgeunternehmen sowie der ARBED S.A. (Durchschnitt 1965–1983 = 100)***
Die regional konzentrierten Strukturkrisen von Bergbau
und Schiffbau führten während des Untersuchungszeitraums
zur Forderung nach einer Regionalisierung der Konjunkturpolitik bzw. dem Streben nach einer »Synthese von Konjunktur- und Strukturförderung«. Das Saarland gehörte zu den
ersten Ländern, die sich für die 1969 realisierte Festschreibung
der Regionalpolitik im Gesetz zur Gemeinschaftsaufgabe der
Verbesserung der regionalen Wirtschaftsstruktur eingesetzt
hatten und zumeist auch von den entsprechenden Infrastrukturmaßnahmen überdurchschnittlich profitierten. Spätestens
mit dem offenen Ausbruch der Stahlkrise im Jahre 1975 spielten die strukturellen Probleme der Saarwirtschaft auch auf
europäischer Ebene eine wichtige Rolle. 1977 entwickelte
die EG-Kommission einen Krisenplan für die Stahlindustrie,
der Ablieferungsquoten, Mindestpreise sowie Importrestriktionen enthielt, aber auch eine finanzielle Förderung
von Investitionen in produktivere Anlagen sowie ein StahlForschungsprogramm vorsah. Welche Bedeutung die für das
Saarland typische Überlagerung von Konjunktur- und Strukturkrisen für die Inangriffnahme und konkrete Ausgestaltung
von Krisenbewältigungsstrategien nicht nur auf der Ebene
von Land und Bund, sondern zugleich jener der Europäischen
Wirtschaftsgemeinschaft hatte und inwiefern diese auf die
wirtschaftliche Entwicklung des Landes zurückwirkte, ist in
weitergehenden Untersuchungen noch zu vertiefen.
Margrit Grabas, Wandel, Krise, Umbruch. Begriffsannäherungen und kritische Reflexionen
Quellenangaben Grafiken
*
Saarland 1965–1970: Statistisches Amt des
Saarlandes (Hg.), Statistisches Handbuch für das Saarland 1976,
Saarbrücken 1976, S. 390; Bundesrepublik 1965–1970:
Norbert Räth, Rezessionen in historischer Betrachtung, in:
Statistisches Bundesamt Deutschland (Hg.), Volkswirtschaftliche
Gesamtrechnungen. Wirtschaft und Statistik (2009/ 3), S. 203–208,
S. 204; Saarland und Bundesrepublik 1971–1984:
Volkswirtschaftliche Gesamtrechnungen der Länder.
** Saarland 1967–1969: Statistisches Amt des
Saarlandes (Hg.), Statistisches Handbuch für das Saarland
1982, Saarbrücken 1983, S. 78; BRD 1967–1969: Sachverständigenrat
zur Begutachtung der gesamtwirtschaftlichen Entwicklung
(Hg.), Wachstum, Beschäftigung, Währungsunion – Orientierung
für die Zukunft. Jahresgutachten 1997/98, Wiesbaden 1997, S. 317;
BRD und Saarland 1970–1982: Statistisches Amt des Saarlandes
(Hg.): Volkswirtschaftliche Gesamtrechnung. Entstehung des
Bruttoinlandsprodukts. Revidierte Ergebnisse für das Saarland
1970 bis 1991, Saarbrücken 1993, S. 43.
*** Saarland 1965–1970: Statistisches Amt des Saarlandes (Hg.),
Statistisches Handbuch für das Saarland 1976, Saarbrücken 1976, S. 390;
Bundesrepublik 1965–1970: Norbert Räth, Rezessionen in historischer
Betrachtung, in: Statistisches Bundesamt Deutschland (Hg.), Volkswirtschaftliche Gesamtrechnungen. Wirtschaft und Statistik (2009/ 3),
S. 203–208, S. 204; Saarland und Bundesrepublik 1971–1984:
Volkswirtschaftliche Gesamtrechnungen der Länder.
4.
Vgl. Grabas / Müller / Damm, Die Stunde der Restrukturierung, S. 478.
G
Wirtschafts- und Sozialgeschichte
Prof. Dr. Margrit
rabas
studierte an der Humboldt-Universität zu Berlin, wo sie
1980 zum Doktor der Ökonomie promoviert wurde. Danach
arbeitete sie bis Anfang 1986 am Institut für Wirtschaftsgeschichte der Akademie der Wissenschaften der DDR. 1987 war
sie zunächst als Gastwissenschaftlerin am Wissenschaftszentrum für Sozialforschung Berlin, dann aber für mehrere Jahre
als wissenschaftliche Mitarbeiterin bzw. als Hochschulassistentin am Arbeitsbereich Wirtschafts- und Sozialgeschichte der Freien Universität Berlin bei Professor Drs. Wolfram
Fischer tätig. 1991 habilitierte sie sich dort mit einer Arbeit
zu »Konjunktur und Wachstum in Deutschland von 1895 bis
1914«. Im Jahr 1992 wurde sie an die Universität des Saarlandes auf den Lehrstuhl für Wirtschafts- und Sozialgeschichte
berufen. Seit 2001 ist sie Vorsitzende der »Internationalen
Wissenschaftlichen Vereinigung Weltwirtschaft und Weltpolitik e.V.« und seit 2007 zudem federführende Herausgeberin
der Publikationsreihe »Schriften zur Wirtschafts- und Sozialgeschichte« im Berliner »Duncker & Humblot« Verlag. Ihre
Forschungsinteressen liegen in der kulturalistischen Erweiterung der historischen Krisen- und Wachstumsforschung seit
dem frühen 19. Jahrhundert, der Geschichte der Nationalökonomie, der Geschichte des Stoffwechsels zwischen Mensch
und Natur sowie auf dem Gebiet des institutionellen und
sozioökonomischen Wandels.
7 32
3 33
D
amm
Dr. Veit
studierte Geschichte und Philosophie an den Universitäten Dresden und Cardiff. Seine Promotion schloss er 2006
mit einer Studie zur Geschichte und Unternehmenskultur
von Banken und Versicherungen im 19. und frühen 20. Jahrhundert ab. Seit 2008 ist er wissenschaftlicher Mitarbeiter am
Lehrstuhl »Wirtschafts- und Sozialgeschichte (einschließlich
Technik- und Umweltgeschichte)« an der Universität des
Saarlandes. Seine Forschungsschwerpunkte liegen im Bereich
der europäischen Wirtschaftsgeschichte im letzten Drittel des
20. Jahrhunderts.
Seit 100 Jahren versorgen wir das
Saarland
mit Strom. Und inzwischen machen wir noch vieles mehr. Wir
investieren in die Zukunft unseres Landes.
In Erneuerbare
Energien, Klimaschutz, Ausbildung
und Neue Technologien.
Alternde Infrastruktur und wie man
mit zerstörungsfreier Prüfung
diagnostisch im Bauwesen helfen kann
Prof. Dr. Christian Boller (1, 2)
Dr. Jochen H. Kurz (1)
(1)
Fraunhofer Institut für Zerstörungsfreie Prüfverfahren (IZFP)
(2)
Zerstörungsfreie Prüfung und Qualitätssicherung, Universität des Saarlandes
Bauwerke der Infrastruktur halten lange, oft eine ganze
Generation und sogar noch länger, aber auch sie sind
nicht für die Ewigkeit gebaut. Infrastrukturbauwerke wie
Parkhäuser und Tiefgaragen, Brücken oder Industriebauwerke sind besonderen Belastungen ausgesetzt und
unterliegen einem kontinuierlichen Alterungsprozess.
Feuchtigkeit, Tausalz sowie wechselnde klimatische
Bedingungen und die Abnutzung der Oberfläche der
Fahrwege durch den Kfz-Verkehr führen zur
Degradation. Steigende Achslasten und klimatische
Veränderungen haben in den letzten Jahrzehnten diesen
Prozess beschleunigt. Insbesondere bei Brücken kann
festgehalten werden, dass je größer das Bauwerk, desto
schlechter der Zustand, da in Deutschland im Mittel die
größten Bauwerke gleichzeitig auch die ältesten sind.
Die kumulierten Folgekosten solcher Infrastrukturbauwerke können deren Anschaffungskosten um ein Vielfaches übersteigen. Dies gilt es frühzeitig durch entsprechende Lebenszyklusbetrachtungen zu berücksichtigen.
Der folgende Beitrag zeigt auf, dass mit einer präzisen
und effizienten Analyse vorhandener Bauwerke eine
umfassende Bestandsaufnahme möglich ist mit einer
daraus ableitbaren Priorisierung gefolgt von einem
effizienten Ansatz zur Verwendung der vorhandenen
finanziellen Ressourcen.
Komplexe Schädigungsvorgänge erfordern oftmals auch den
Einsatz mehrerer Methoden. Zudem sind die Schäden an Infrastrukturbauwerken auf verschiedenen Skalen zu erfassen.
Ein wesentliches Element ist hierbei der Einsatz automatisierter ZfP-Systeme (ZfP = Zerstörungsfreie Prüfung). Dabei
bleibt der automatisierte Einsatz von zerstörungsfreien Prüfverfahren bei Stahl- und Spannbeton nicht auf ein Verfahren
beschränkt, sondern es kommen Multi-Sensor Systeme zum
Einsatz. Ein aktuelles Haupteinsatzgebiet für ZfP im Bereich
des Bauwesens (ZfPBau) sind Verkehrsinfrastrukturbauwerke, da hier die Verkehrssicherheit der Infrastruktur gewährleistet werden muss.
Die ZfP im Bauwesen blickt, im Gegensatz zu ihrer breiten
und langjährigen Anwendung an metallischen Werkstoffen,
auf eine noch kurze Vergangenheit zurück. Es begann damit,
dass im Jahr 1985 die Bundesanstalt für Materialforschung
und -prüfung (BAM) gemeinsam mit der Deutschen Gesellschaft für zerstörungsfreie Prüfung (DGZfP) den Stand des
Wissens und der Technik der ZfP im Bauwesen zu erfassen
und zu dokumentieren begann. Die beiden Institutionen veranstalteten 1986 gemeinsam ein erstes ZfPBau-Symposium. In
seinem Grußwort zu dem Symposium begründete der damalige Bundesminister für Forschung und Technologie, Dr. Heinz
Riesenhuber, die Notwendigkeit der verstärkten Entwicklung
und Anwendung der ZfP im Bauwesen damit, dass von den
volkswirtschaftlichen Anlageninvestitionen etwa 60 % auf
Bauinvestitionen mit einem Zeitwert von ca. 4,8 Billionen
DM entfallen und daher Maßnahmen der zerstörungsfreien
Diagnose und zur Erhaltung der Bausubstanz große Bedeutung besitzen. »Die rechtzeitige Feststellung von Mängeln
bzw. Schäden ist die notwendige Voraussetzung, um schwerwiegende Folgeschäden und Instandsetzungen zu vermeiden.
Darüber hinaus hat auch die Entwicklung zerstörungsfreier
Untersuchungsmethoden für denkmalgeschützte Bauwerke
eine große kulturpolitische Bedeutung«. Die Richtigkeit dieser
Aussagen ist auch heute noch uneingeschränkt zu bestätigen.
Seit diesen Anfängen hat durch innovative Entwicklungen
die ZfP im Bauwesen ihre Bedeutung kontinuierlich steigern
und die Notwendigkeit ihrer Anwendung begründen können.
Der vorliegende Beitrag stellt einige aktuelle Entwicklungstrends im Bereich ZfPBau dar, bei denen auch das Fraunhofer
IZFP entscheidend beteiligt war bzw. ist.
Entwicklungstrends, auch am Fraunhofer IZFP, im Bereich
Infrastrukturprüfung
Das Inspizieren und Überwachen von Bauwerken ist
vielfach eine Prüfaufgabe von großflächiger Dimension. Aus
diesem Grund bedarf es automatisierter Prüfgeräte in Form
von Robotern. In diesem Zusammenhang haben sog. Prüfmolche auf der Basis von Ultraschalltechnik im Bereich der
Prüfung von Stahlpipelines für die Ölförderung eine besondere Bedeutung erlangt. Das Prinzip der Molche ist auf sog.
Krabbler erweitert worden, mit denen großflächige Stahlkonstruktionen wie z. B. Stahltanks geprüft werden können. Diese
Krabbler können sich bei ferromagnetischen Werkstoffen
über Magneträder an den Konstruktionen entlang bewegen.
Krabbler werden in diesem Zusammenhang auch zur Prüfung von Schweißnähten an großen Stahlkonstruktionen wie
auch Pipelines eingesetzt. Im Projekt BetoScan wurde eine
modular aufgebaute Robotik-Plattform zur Inspektion des
Korrosionsverhaltens bewehrter Parkdecks entwickelt. In
einem Parallelprojekt OSSCAR wurde ein Scanner entwikkelt, der über Saugnäpfe an einer Betonstruktur befestigt
werden kann und dann die Betonstruktur mit verschiedenen
ZfP-Verfahren abscannt. Eine Beschreibung der beiden Bauwerksscanner ist in [1] zu finden. Eine weitere Entwicklung
ist ein auf elektromagnetischer Basis arbeitender rotierender
Brückenscanner zur Detektion gerissener Querspannglieder,
der an der TU Berlin in Zusammenarbeit mit dem Fraunhofer
IZFP entwickelt worden ist [2]. Darüber hinaus gibt es eine
Vielzahl von auf Radar basierenden Scannern zur Erkennung
von Straßenzuständen einschließlich deren Unterbau, die an
Straßenfahrzeugen direkt angebracht werden und eine Befahrung der Straßen bei gleichzeitiger Datenaufnahme je nach
verwendeter Antenne mit Geschwindigkeiten von bis zu 80
km/ h ermöglichen [3]. Neuerdings werden auch zunehmend
Mikroflugzeuge in die Überlegungen zur Überwachung von
Bauwerken einbezogen. Die Flugzeuge, überwiegend auf der
Basis von Drehflüglern (Hubschraubern), befliegen die Bauwerke und nehmen die Bauteilstruktur, derzeit überwiegend
photographisch, auf, wobei die Bilder dann zusammengesetzt
werden, was zunehmend mehr auf automatischer Basis erfolgt. Selbiges Prinzip ist auch angedacht im Bereich der Unterwasser-Prüfung, z. B. im Zusammenhang mit der Prüfung
von Spundwänden in Hafenbecken.
Auch die Integration von Sensorik und ggf. Aktorik in
Bauwerke zur Zustandsüberwachung im Sinne eines Structural Health Monitoring spielt im Baubereich eine zunehmende
Rolle. Eine Zusammenfassung aktueller Aktivitäten kann
hierzu in [4] gefunden werden.
Neue Entwicklungen in der Bestandsaufnahme
und Zustandserfassung – Automatisierte Prüfung von
Ingenieurbauwerken
Die gemeinsame Projektgruppe (Joint Lab) zwischen
dem Fraunhofer IZFP und der Bundesanstalt für Materialforschung und -prüfung (BAM) zur ZfP im Bauwesen sowie
ein enges Netzwerk an Partnern in diesem Fachbereich hat
im Rahmen von zwei durch das Innonet Programm des Bundesministeriums für Wirtschaft und Technologie geförderten Projekten automatisierte Multi-Sensor-Entwicklungen
umgesetzt.
Das BETOSCAN-System [5] besteht aus einer mobilen Roboterplattform, die quasi autonom über horizontale Flächen
(z. B. Parkdecks, Fahrbahnplatten von Brücken) navigieren
und gleichzeitig zerstörungsfreie Untersuchungen durchführen kann (Abb. 1, links). Hierfür kamen nur etablierte
und bereits erprobte Sensoren und Verfahren zum Einsatz:
Ultraschall (Hohlräume, Bauteildicke), Mikrowelle (Feuchteverteilungen), Georadar (Bewehrungsortung),
Abb. 1: Links BetoScan, selbstfahrender und autonom navigierender Multi-Sensor
Roboter. Rechts OSSCAR, Multi-Sensor Bauwerksscanner.
Zerstörungsfreie Prüfung und Qualitätssicherung
FRAUNHOFER-INSTITUT FÜR ZERSTÖRUNGSFREIE PRÜFVERFAHREN IZFP
7 34
3 35
Als Forschungsinstitut und Partner für Industrieunternehmen befasst sich das Fraunhofer-Institut für Zerstörungsfreie Prüfverfahren
IZFP mit den physikalischen Methoden der zerstörungsfreien Prüfung. Unsere Wissenschaftler und Ingenieure erarbeiten Verfahren
zur Materialcharakterisierung, analysieren Produktionsabläufe und Prozesse sowie betriebliche Risiken und entwickeln marktgerechte
Prüfgeräte und Systeme. Die Validierung in unserem nach DIN EN ISO / IEC 17025:2005 akkreditierten Dienstleistungszentrum ermöglicht die qualitätsgesicherte industrielle Anwendung unserer Arbeitsergebnisse.
Die Verbesserung der Produktqualität bei gleichzeitiger Senkung von Qualitäts- und Produktionskosten steht unter den Aspekten
Sicherheit und Verfügbarkeit im Fokus der anwendungsorientierten, industrietauglichen Weiterentwicklungen des Fraunhofer IZFP. Ein
weiterer Schwerpunkt bildet die zerstörungsfreie Bauwerksprüfung: Structural Health Monitoring und Zustandserfassung von Infrastrukturbauwerken, Straßen, Brücken und sonstigen Bauwerken aus Stahl- und Spannbeton gewinnen zunehmend an Bedeutung.
+49 681 9302 0 | [email protected] | www.izfp.fraunhofer.de
Wirbelstrom (Betondeckung), Potentialverfahren (Korrosionswahrscheinlichkeit) sowie Umgebungstemperatur und
Luftfeuchte. Der Bediener kann online die Datenaufnahme
verfolgen und somit jederzeit eingreifen. Das Gesamtsystem
wurde dahingehend optimiert, eine maximale Fahrgeschwindigkeit unter Berücksichtigung der langsamsten Sensoren
(Geschwindigkeit der Datenerfassung) zu ermöglichen.
Durch die realisierte TCP/IP-Kommunikation zwischen
Roboter, Fahrbereichsfestlegung und Datenerfassung konnte
ein hochgradig flexibles System geschaffen werden, mit dem
beliebige Fahrprofile realisierbar sind. Mit einmalig angelegten Karten sind wiederkehrende Messungen möglich, die
zukünftig bei der Bauwerksüberwachung bei Neubauten und
nach Instandsetzungen eine wichtige Rolle spielen werden.
Für die Auswertemöglichkeiten wurde ebenfalls auf hohe
Flexibilität geachtet.
Der OSSCAR-Scanner (Abb. 1, rechts) erlaubt die kombinierte Untersuchung mit Ultraschallecho, Radar und Wirbelstrom und die nachfolgende bildgebende Darstellung
der Ergebnisse vor Ort [1]. Dabei steht als Prüfaufgabe im
Vordergrund, für eine wenige Quadratmeter große Messfläche, die zuvor von einem Brückenprüfingenieur festgelegt
wird, detaillierte Kenntnisse über die innere Konstruktion
zu gewinnen, um aus den Messergebnissen beispielsweise
nachträglich einen Bestandsplan abzuleiten.
Visuelle Bauwerksaufnahme mittels fliegender Systeme
Bauwerke sind groß und der Aufwand, um sie zu inspizieren demzufolge ebenso. Konventionell werden Bauwerke visuell in der Form geprüft, dass geübte Menschen die Bauwerke von der Nähe in Augenschein nehmen und aufgenommene
Schäden von Hand in einem Plan kartieren. Vielfach müssen
dazu die Inspektoren über Hebebühnen an das Gebäude herangeführt werden. Dies ist zeit- und kostenaufwändig.
Deutlich schneller und kostengünstiger kann eine solche
Bauwerksüberwachung mit kleinen unbemannten Fluggeräten erfolgen [6]. Diese Fluggeräte, auch als Micro Aerial
Vehicles (MAV) bezeichnet, werden mit hochauflösenden
Abb. 2: Oktokopter mit Digitalkamera zur Gebäudeinspektion
Digitalkameras versehen, mit denen die zu inspizierenden Gebäude über eine Flut von Bildern photographisch abgerastert
werden. Die große Herausforderung besteht dann darin, die
Vielzahl an Bildern so passgenau zusammenzusetzen, dass
man ein vollständiges Bild des zu inspizierenden Gebäudes
– und das möglichst sogar dreidimensional und mit hohem
Bildauflösungsvermögen – erhält. Aus den Bildern können
Schäden im Millimeterbereich erkannt werden, wobei beispielsweise Rissmuster automatisiert ausgewertet werden
können. Als MAV erweisen sich hier Tragflügler (also kleine
Hubschrauber) wegen ihrer Manövrierfähigkeit als besonders
günstig. Beim Fraunhofer IZFP werden derzeit sogenannte
Oktokopter (Abb. 2) eingesetzt, die zusammen mit dem Lehrstuhl für zerstörungsfreie Prüfung und Qualitätssicherung
der Universität des Saarlandes weiterentwickelt werden. Das
resultierende Fluggerät soll in letzter Instanz nicht nur mit
Kameras konventionelle Digitalfotos aufnehmen, sondern
auch mit anderer Sensorik bestückt werden, so beispielsweise
mit miniaturisierter Thermographie- und Radarsensorik. Abbildung 3 zeigt das zusammengesetzte 3D-Bild des Gebäudes
des Fraunhofer IZFP, dessen Oberfläche man sich mit einem
erheblichen Auflösungsvermögen im Detail anschauen und
dementsprechend automatisiert analysieren kann. Auch kann
das betrachtete Gebäude an neuralgischen Stellen jederzeit
mit dem MAV nachinspiziert und die resultierenden Neuauf-
Abb. 3: Photographisch zusammengesetztes 3D-Modell des Altbaus des Fraunhofer
IZFP und herausvergrößerte korrosionsbedingte Betonabplatzung.
nahmen in das bestehende 3D-Bild integriert werden. Über
zeitliche Abfolgen lassen sich somit auch Schadensentwicklungen aufzeigen. All dies ist anderweitig nur mit vielfach
höheren Aufwendungen möglich.
FilameNDT: bedarfsorientierte Inspektion von Spannkabeln, Spannseilen und Erdankern
FilameNDT ist ein Projekt, bei dem das Fraunhofer IZFP
gemeinsam mit dem Carnot Institut VITRES-IFFSTAR bedarfsorientierte ZfP-Verfahren zur Inspektion von Spannkabeln,
Spannseilen und Erdankern für Infrastrukturbauwerke wie
z. B. Brücken entwickelt und umsetzt. Dabei stehen bei den
seilartigen Konstruktionen die verdeckten Bereiche im Vordergrund, weil gerade an diesen äußerlich nicht sichtbare
Schäden auftreten, die meist durch Korrosion bedingt sind.
Bei einigen Konfigurationen ist auch noch eine Ermüdungsbelastung überlagert. Spannseile und Drahtseile aus Stahl
werden schon seit mehr als 100 Jahren für Bauwerke und in
der Industrie eingesetzt. Aus Sicht der Zustandserfassung
und Fehlerprüfung stellen sie trotz zahlreicher technischer
Entwicklungen immer noch eine Herausforderung dar. Hier
ist eine zerstörungsfreie Zustandserfassung und Schadensdiagnose gefordert. Da Infrastrukturbauwerke nicht einfach
ersetzt werden können, ist eine zuverlässige Kenntnis des Zustands insbesondere der kritischen Orte, der sog. »Hot Spots«,
erforderlich. Im Rahmen von FilameNDT werden existierende zerstörungsfreie Prüfverfahren (wie z. B. elektromagnetisch angeregter Ultraschall EMUS, magnetischer Streufluss,
mikromagnetische Prüfverfahren und Schallemissionsanalyse) für die Prüfung von seilartigen Konstruktionen angepasst
und weiterentwickelt. Mit den Verfahren werden entweder
aus Belastung und Schädigung entstehende akustische Signale passiv erfasst (Schallemission), akustische Signale durch das
zu überwachende Bauteil gesandt (Ultraschall) oder die Änderung der örtlichen magnetischen Eigenschaften gemessen
(Magnetik), wobei jedes Verfahren seine eigenen Spezifika
hat und eine Kombination der Verfahren natürlich eine Ultima Ratio darstellt. Für ein Monitoring werden mikromagnetische Verfahren in diesem Umfeld erstmals eingesetzt und die
Untersuchungen von Schallemissionsmessungen begleitet.
Das an der Saar-Brücke in Mettlach durchgeführte Monitoring mit mikromagnetischen Prüfgrößen zeigte, dass eine
spannungssensitive, qualitative Überwachung von komplexen
vollverschlossenen Spiralseilen möglich ist. Aufgrund der
erforderlichen Sanierung und durch die mittlerweile mehrjährige Kooperation mit dem Saarländischen Landesbetrieb
für Straßenbau zu verschiedenen Aspekten der Zustandserfassung und Schadensdiagnose konnte die Saar-Brücke in
Mettlach (vgl. Abb.4) für diese Untersuchungen als reales
Bauwerk seit Herbst 2011 genutzt werden. Bei den beschriebenen Ansätzen zur lokalen und globalen Schadenserfassung
stehen eine einfache Anwendbarkeit sowie langreichweitige
Ansätze im Vordergrund. Dafür wird auch auf das Werkzeug
der Modellierung von geführten Wellen in Seilkonstruktionen
zurückgegriffen.
Weitere Projekte
Die Notwendigkeit, Schädigungsphänomene in Infrastrukturbauwerken besser zu verstehen hat zu einer Vielzahl
weiterer Forschungs- und Entwicklungsprojekte geführt, an
denen das Fraunhofer IZFP mit beteiligt ist. Eines davon ist
ein sog. INTERREG-Projekt mit dem Namen CURe MODERN
[7], wo Industrie- und Forschungspartner aus dem Saarland,
verändert, dass niemand mehr die seinerzeit angesetzten Sicherheitsfaktoren garantieren kann. In einem solchen Fall
sind dann zerstörungsfreie Prüfverfahren besonders wertvoll,
weil sie die fehlenden Bemessungsparameter vielfach in situ
bestimmen können. Auch werden gerade im ERA.NET-RUS
Forschungsvorhaben UNeCOM akustische Wandler entwikkelt, die in Betonstrukturen einbetoniert werden, die dann
in bestimmten Zeitintervallen akustische Signale in die Betonstruktur aussenden und wieder erfassen, womit schließlich
ein strukturintegriertes Überwachungs- und damit ›Nervensystem‹ vorliegt, das in eine neue Dimension der Bautechnologie führt, die im Englischen üblicherweise auch mit dem
Begriff ›Structural Health Monitoring‹ umschrieben wird.
Wirtschaftsprüfung Unternehmensberatung GmbH
Wirtschaftsprüfungsgesellschaft, Landwehrplatz 6 - 7,
66111 Saarbrücken, Tel 0681/9338-0, Fax 0681/9338-180,
www.wubwp.de, [email protected]
Die WUB ist eine Prüfungs- und Beratungsgesellschaft, die
sich - wie ein Großteil ihrer Mandanten - inhabergeführt und
mittelständisch am Markt positioniert hat. Das bedeutet, die
WUB kennt und versteht die besonderen Probleme und
Fragen ihrer Mandanten - da diese sie selbst auch betreffen.
Vorrangiges Ziel der WUB ist es, den Mandanten individuell
ausgerichtete, fachübergreifende, qualifizierte Dienstleistungen anzubieten. Die Betreuung erfolgt jeweils direkt
durch einen erfahrenen Partner, unterstützt durch ein festes
Team von engagierten Mitarbeitern mit langjähriger Berufserfahrung.
Auf die zunehmenden internationalen Aktivitäten ihrer Mandanten und das politische Zusammenwachsen Europas hat
die WUB entsprechend reagiert und ein ihrem Leistungsprofil adäquates Angebot im europäischen und im übrigen
Ausland installiert. Deshalb ist die WUB Partner von
Morison International Ltd., London, einer Kooperation rechtlich und organisatorisch unabhängig voneinander geführter
Firmen in der ganzen Welt.
Gründungsjahr: 1971
Zerstörungsfreie Prüfung und Qualitätssicherung
Mitarbeiter: 55
7 36
3 37
Abb. 4: Saar-Brücke in Mettlach mit einbetonierten Verankerungen der Spannseile
Lothringen und Rheinland-Pfalz Zustandserfassung an einer Vielzahl von Bauwerken und Kulturdenkmälern in der
Großregion machen, um daraus dann Handlungsmaßnahmen für deren Sanierung abzuleiten. In einem weiteren AiFgeförderten Gemeinschaftsprojekt werden die in Bewehrungseisen bestehenden Spannungen mittels magnetischer
Messverfahren bestimmt. Auch dies ist ein wesentlicher
Beitrag im Zusammenhang mit der Zustandsbestimmung
alternder Bauwerke. Bei vielen Bauwerken liegen heute die
Bemessungsgrundlagen aufgrund ihres Alters nicht mehr vor
oder die Lasten bzw. Werkstoffzustände haben sich soweit
Leistungsspektrum:
- Wirtschaftsprüfung
- Steuerberatung
- Betriebliche Unternehmensberatung
- Corporate Finance-Beratung
Mandanten (Branchen):
- Anlagenbau
- schlüsselfertige Industrieanlagen
- Metall verarbeitende Industrie
- Maschinenbau
- Automotive
- Softwarehersteller
- Finanzdienstleister
- Print- und elektronische Medien
- Einzel- und Großhandel
- Logistikunternehmen
Fazit
Die zerstörungsfreie Prüfung im Bauwesen ist ein vergleichsweise junges Teilgebiet der industriellen ZfP. Nicht
nur deshalb, sondern auch aufgrund der alternden Infrastruktur sowie der modernen Entwicklungen im Bereich der
Baustoffe stellt die ZfP hier einen Wachstumsbereich dar.
Überall dort, wo Zustandserfassung, Schadensdiagnose und
Qualitätssicherung erforderlich sind, will man dies möglichst
zerstörungsfrei umsetzen. Relevant sind die Entwicklungen
auch für die zunehmende Zahl an Public Private Partnership
(PPP)-Projekten bei Infrastrukturbauwerken.
Die hier vorgestellten Entwicklungen stellen einen Ausschnitt aus den aktuellen Arbeitsgebieten des Fraunhofer
IZFP im Bereich Bauwesen dar. Einen wesentlichen zukünftigen Schwerpunkt wird der Bereich Monitoring und Verknüpfung von mehrskaligen Informationen darstellen. An diesen
Punkten wird aktuell schon gearbeitet.
Wichtig ist ebenfalls, dass die Entwicklungen möglichst
reibungslos in die praktische Anwendung transferiert werden können. Hierfür müssen zum einen im Bereich Regelwerke und Richtlinien entsprechende Voraussetzungen für
die Anwendung geschaffen werden und zum anderen ist die
Ausbildung und Schulung der andere wesentliche Punkt. Für
die Schulung arbeitet das Fraunhofer IZFP aktuell an neuen
Konzepten und Umsetzungsmethoden.
Literatur
1
Taffe, A., Kind, T., Stoppel, M. ; Kurz, J. H.: Bauwerkscanner zur automatisierten und
kombinierten Anwendung zerstörungsfreier Prüfverfahren im Bauwesen.
In: Beton- und Stahlbetonbau. 106 (2011), 4, S. 267–276.
2
Hillemeier, B: Schnelle und großflächige Bauzustandserfassung an Spannbetonbrücken,
Estrichen und Deckensystemen, in: DGZfP (Hrsg.); Tagungsband zur Bauwerksdiagnose 2008, Berlin,
21.– 22.02.2008, DGZfP BB 112–CD, Vortrag 15
3
Saarenketo T, 2006: Electrical Properties of Road Materials and Subgrade Soils and
the Use of Ground Penetrating Radar in Traffic Infrastructure Surveys;
Acta Universitatis Ouluensis A 471, Universität Oulu/ Finnland
emotion for mobile worlds
4
Boller C, F-K Chang and Y Fujino (Ed.s), 2009: Encyclopedia of Structural Health
5
Hussung, Dieter R., Kurz, Jochen H., Stoppel, Markus:
Monitoring; 5 Vol., John Wiley & Sons, Chichester/ GB
Automatisierte zerstörungsfreie Prüftechnik für großflächige Stahlbetontragwerke In:
Beton- und Stahlbetonbau. 107 (2012), 12, S. 794–804.
6
Kurz, J. H., Boller, C., 2011. Moderne Bauwerksprüfung für Bestandsbauten – Abschlussbericht.
Gemeinsamer Bericht von: Dr. Nikolay Avgustinov, Dipl.-Ing. Christian Eschmann,
Dr. Jochen H. Kurz, Dipl.-Ing. Ralf Moryson, Dr. Christoph Sklarczyk, Dipl.-Ing.
Doreen Streicher. Gefördert durch das Ministerium für Wirtschaft und Wissenschaft des
Das Familienunternehmen VOIT zählt
zu den 20 größten Arbeitgebern im
Saarland. Als international agierender
Systemlieferant für die Automobilindustrie beschäftigt der Unternehmensverbund am Hauptstandort St. Ingbert ca.
1.000, weltweit an 6 Produktionsstandorten ca. 1.800 Mitarbeiter.
Entwickelt und gefertigt werden hochpräzise, kundenspezifische AluminiumDruckgussteile mit fertig bearbeiteten
Funktionsflächen und Fertiggusstechnik sowie Module und Komponenten in
Stanz-, Zieh-, Biegeroll- und Warmumformtechnologie.
Rund 170 Mio. unserer Teile werden jährlich bei Audi, BMW, Mercedes, VW, Ford,
Opel, Jaguar, Landrover ... in Funktionsteilen wie Triebwerk, Kraftstoffversorgung,
Antriebsstrang, Abgassystem, Fahrwerk
und Karosserie verbaut. Mindestens
50% aller Autos haben VOIT-Teile inside.
Darüber hinaus engagiert sich VOIT zunehmend in technologischen Zukunftsfeldern wie z.B. Leichtbau mit Warmumformtechnik und Greentech, z.B. mit
Komponenten für die Elektromobilität.
www.voit.de
facebook.com/WillyVoit
WILLY VOIT GMBH & CO. KG
Saarbrücker Straße 2 I
66386 St. Ingbert I
Tel.: +49 68 94 909 -0 I
[email protected] I
[email protected] I
Saarlandes (Förderkennzeichen 12/ 2010), 57 Seiten.
7
CURe MODERN, Projekthomepage: http://cure-modern.eu/ (abgerufen am 18. April 2013)
B
Zerstörungsfreie Prüfung und Qualitätssicherung
Prof. Dr. Christian
oller
studierte Bauingenieurwesen an der Technischen Hochschule Darmstadt, wo er 1988 auch seine Promotion abschloss.
Von 1981 bis 1986 arbeitete er dort als Wissenschaftlicher
Mitarbeiter, unterbrochen von einem sechsmonatigen Stipendium am »Fatigue Testing Division of the National Research Institute for Metals (NRIM)« in Tokyo/ Japan. Von
1987 bis 1990 war er als Wissenschaftlicher Mitarbeiter beim
Battelle-Institut e. V.in Frankfurt beschäftigt, danach als Entwicklungsingenieur im Bereich Flugzeugstruktur bei MBB/
Daimler-Benz Aerospace AG in Ottobrunn/München sowie
als Mitglied in der Daimler-Benz Gruppe für Forschung und
Technologietransfer in Stuttgart. Nach seiner Tätigkeit als
Chefingenieur für Flugzeugstrukturen bei DaimlerChrysler
Luft- und Raumfahrt (heute EADS) sowie der Übernahme
einer Gastprofessur für Luft- und Raumfahrttechnik an der
University of Sheffield/ UK war er dort bis 2008 Professor für
Entwurf adaptiver Strukturen im Fachbereich Maschinenbau.
Seit 2008 ist Professor Boller Inhaber des Lehrstuhls für
zerstörungsfreie Materialprüfung und Qualitätssicherung der
Universität des Saarlandes und Leiter des ›Fraunhofer Instituts Zerstörungsfreie Prüfverfahren‹ in Saarbrücken. Er ist
Mitglied der Gesellschaft für Anlagen- und Reaktorsicherheit
(GRS) im Projektkomitee ›Komponentenverhalten‹ und kooptiertes Mitglied bei der Deutschen Gesellschaft für Zerstörungsfreie Prüfung e. V. ebenso wie beim Canadian Institute
for NDE sowie im wissenschaftlichen Beirat ›Werkstoffe und
technische Systeme‹ der Bundesanstalt für Materialprüfung
(BAM). Beim ›International Workshop on Structural Health
Monitoring‹ in Stanford USA wurde er mit dem ›Lifetime
Achievement Award‹ ausgezeichnet.
7 38
3 39
K
Dr. Jochen H.
urz
studierte Geophysik an der Friedrich-Schiller Universität
Jena (Diplom 2001) und beschäftigte sich dort mit FiniteElemente Modellierungen zu fluidinduzierten Erdbebenphänomenen. 2006 promovierte er am Institut für Werkstoffe
im Bauwesen der Universität Stuttgart im Bereich zerstörungsfreie Prüfung (ZfP) im Bauwesen zur Untersuchung
von Bruchprozessen mittels Schallemissionsanalyse. Seit 2006
ist er Mitarbeiter am Fraunhofer IZFP in Saarbrücken. Er
ist dort Teamleiter der Gruppe Lebensdauermanagement.
Die aktuellen Arbeitsschwerpunkte liegen im Bereich ZfP im
Bauwesen und der Verknüpfung von ZfP und schädigungsmechanischer Bewertung. Die Entwicklung von ZfP basierter Lebensdauerbewertungssoftware insbesondere für Erdöl- und
Erdgaspipelines und automatisierten Multi-Sensor Anwendungen für den Bereich ZfP im Bauwesen stellen weitere Arbeitsschwerpunkte dar. Er ist Vertreter des Fraunhofer IZFP
in der Fraunhofer Allianz Bau, stellvertretender Vorsitzender
des Fachausschusses Bau der Deutschen Gesellschaft für Zerstörungsfreie Prüfung (DGZfP) und Leiter der COST Working
Group »Monitoring of Timber Structures« im COST FP 1101.
urznachrichten aus der Forschung
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Fluorid reduziert Haftkraft von
Bakterien an Zähnen
Regelmäßiges Zähneputzen mit fluoridhaltiger Zahnpasta härtet den Zahn ab und schützt vor Bakterien. Die
Physikerin Professor Karin Jacobs hat jetzt herausgefunden, dass Fluorid die Kraft beeinflusst, mit der sich
Bakterien an Oberflächen anhaften.
Zucker ist nach wie vor einer der Hauptverursacher von
Löchern in den Zähnen. Die Bakterien im Mund bauen die
Zuckerverbindungen ab und setzen dabei Säuren frei, die den
Zahnschmelz angreifen. Vorbeugend hilft hier nur regelmäßiges Zähneputzen mit fluoridhaltiger Zahnpasta. Das darin
enthaltene Fluorid verbindet sich mit dem Zahnmaterial, dem
Hydroxylapatit (HAP), und bildet unter anderem Fluorapatit
(FAP), das weniger säurelöslich ist als das HAP und so den
Zahn vor Säureangriffen durch die Mikroben schützt. In einer
jedem Fall, dass Fluorid bakterielle Haftkräfte generell zu
schwächen scheint.« Der Effekt, dass Fluorid bakterielle
Haftkräfte schwächt, könnte vielleicht schon bald helfen, bessere Zahnfüllungen, Zahnersatz und medizinische Implantate
zu entwickeln.
Die Studie, die im Rahmen des Seite 4ff vorgestellten SFB
1027 »Physikalische Modellierung von Nichtgleichgewichtsprozessen in biologischen Systemen« entstanden ist, wurde im
renommierten Journal Langmuir veröffentlicht: http://dx.doi.
org/10.1021/la4008558
Internationales Forschungsschaufenster
Mit maßgeschneiderten Lösungen aus der Forschung
hat das Saarland auch in diesem Jahr auf der Hannover
Messe auf sich aufmerksam gemacht. Zwei der Exponate, die – organisiert von der Kontaktstelle für Wissensund Technologietransfer (KWT) – auf dem saarländischen
Forschungsstand vorgestellt wurden, stehen beispielhaft
das an der Saar-Universität vorhandene ingenieurwissenschaftliche Know-how.
Reibungsfrei und intelligent — Schwebende
Metallplatte zeigt, was Magnetlager können
Saarbrücker Forscher um Physik-Professorin Karin Jacobs haben herausgefunden,
dass Fluorid hilft, die Haftkraft von Bakterien zu reduzieren. Foto: © apops – Fotolia.
neuen Studie hat das Team um Professorin Jacobs zusammen
mit Mikrobiologen des benachbarten Universitätsklinikums
Homburg untersucht, welche Rolle die dünne Fluoridschicht
bei der Interaktion zwischen Bakterien und Zahnoberfläche
spielt. Dafür verwendeten die Forscher eigens hergestellte
Hydroxylapatit-Plättchen, die dem Zahnschmelz in der Zusammensetzung zwar ähneln, aber eine sehr glatte Oberfläche
aufweisen und daher gut geeignet sind für die hochauflösenden Analysemethoden. Mit Hilfe der Rasterkraftmikroskopie wurde die Haftkraft verschiedener Bakterienarten
bestimmt, darunter zwei Karieserreger (Streptococcus mutans,
Streptococcus oralis). Die Untersuchungen haben gezeigt,
dass die untersuchten Mikroorganismen an den Oberflächen,
die mit Fluorid behandelt worden sind, nur halb so stark haften blieben wie an den unbehandelten Oberflächen.
Ob dieses im Labor erzielte Ergebnis auch in der Mundhöhle Bestand hat, wird noch untersucht. »Interessant ist in
Wo sich etwas bewegen oder drehen soll, verringern so
genannte Lager die Reibung – wie beim Auto zwischen Rad
und Achse. Ein neuartiges Magnetlager, das nicht nur ganz
ohne Reibung auskommt, sondern intelligent und selbstständig Störungen abschätzt und ausgleicht, haben Saarbrücker
Forscher um Professor Joachim Rudolph entwickelt.
Kugellager ohne Kugeln? Das ist möglich: Magnetlager
heißt die Alternative, die komplett ohne Reibung und Wartung auskommt. Damit ist diese Methode klar im Vorteil,
denn herkömmliche Lager verringern die Reibung und müssen zeitaufwändig instand gehalten werden. An intelligenten
Magnetlagern, die Lagerungen aller Art ersetzen können, arbeiten Ingenieure im Team von Professor Joachim Rudolph. Ein intelligentes Beispiel für ein Magnetlager haben die
Regelungstechniker auf der Hannover Messe vorgestellt:
eine schwebende Metallplatte, die mit viel Ballgefühl einen
Tischtennisball hüpfen lässt. Einen solchen mehrmals auf
einem Schläger auftippen zu lassen, erfordert auch beim Menschen einiges an Geschick. Die rund fünf Kilogramm schwere
Metallplatte, die Professor Rudolph und Lothar Kiltz in Hannover vorgestellt haben, wird von vier Elektromagneten frei
beweglich in der Schwebe gehalten. Das macht eine reibungsfreie Bewegung möglich, ein mechanisches Lager wird ersetzt.
Ihr besonderes »Talent« zeigt die Platte, wenn sie gestört wird.
Fällt etwa ein Tischtennisball auf sie, müsste sie eigentlich
empfindlich aus dem Gleichgewicht geraten und kippen. Die
schwebende Metallplatte jedoch hält nicht nur die Balance,
sondern kommt dem Ball beim nächsten Aufschlag entgegen
und versetzt ihm einen passenden Stoß, damit er weiterhin
gleichmäßig springt.
urznachrichten aus der Forschung
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Was beim Menschen, der den Tischtennisball balanciert, vom
Gehirn gesteuert wird, übernimmt bei der schwebenden Metallplatte eine Steuerungseinheit. Das besondere Know-how des
neuen Verfahrens liegt
in der Koordination.
Es genügt dem System,
die Position der Platte
und die Ströme in den
Magnetspulen zu messen, um den Aufprall
des Balls zu erkennen.
Weitere Sensoren sind
nicht erforderlich. Neue
hochleistungsfähige Algorithmen berechnen
innerhalb weniger Mikrosekunden, wie die
Elektromagneten die
Stöße abfangen könDie fünf Kilogramm schwere Metallplatte
nen. Gleichzeitig leitet
(unten im Bild) schwebt frei im Feld von vier
das System anhand
Elektromagneten. Der Wissenschaftliche
der wenigen gemesseMitarbeiter Lothar Kiltz zeigt, dass ein Tischnen Signale ab, was als
tennisball sie nicht aus der Balance bringt:
nächstes passiert – es
Das intelligente Magnetlager zeigt Ballgefühl,
schätzt, wann der nächgleicht die Störung aus und die Platte versetzt
ste Aufprall erfolgt und
dem Ball Stöße, damit er gleichmäßig auftippt.
berechnet, wie diesem
Foto: Oliver Dietze
zu begegnen ist. Schon
bevor der Ball wieder
auftippt, weist es die Elektromagnete vorausschauend und genau an, wie sie zu reagieren haben: Die Platte ist bereit, ihm im
rechten Augenblick einen angemessenen Stoß zu versetzen.
Was auf den ersten Blick spielerisch wirkt, demonstriert
handfeste Ingenieurleistung: Die Saarbrücker Regelungstechniker um Professor Rudolph entwickeln modellbasierte
Algorithmen für ultraschnelle Präzisionsregelung.
Drähte, an denen an der Saar-Universität die Teams der Professoren Stefan Seelecke und Joachim Rudolph forschen. Sie
nutzen dabei die besonderen Eigenschaften von Drähten aus
der Legierung Nickel-Titan (kurz NiTi). Diese Drähte besitzen ein Formgedächtnis: Werden die Drähte erwärmt, etwa
indem ein elektrischer Strom durch sie fließt, ziehen sie sich
zusammen und werden deutlich kürzer. Wird der Strom abgeschaltet, kühlen sie ab und werden wieder so lang wie zuvor.
Diese Eigenschaften der NiTi-Legierung, die sie von gewöhnlichen Metallen unterscheidet, beruhen auf so genannten Phasenumwandlungen: Wird der Draht warm, wandelt sich seine
Gitterstruktur um, was Auswirkungen auf seine Form hat.
Am Lehrstuhl für Unkonventionelle Aktorik bringt
Professor Stefan Seelecke mit den Formgedächtnis-Drähten verschiedenste technische Bauteile in Bewegung. Die
haarfeinen Drähte können auch schwere Gewichte heben,
wenn sie unter Strom stehen. Mithilfe einer ausgeklügelten
Steuerung lassen sich im Zusammenspiel mehrerer Drähte
ganze Bewegungsabläufe nach festgelegter Choreographie
ausführen. Dies demonstrieren die Forscher an Modellfledermäusen, denen sie Drähte als künstliche Muskeln verliehen
haben, die die Flügelbewegungen echter Fledermäuse exakt
nachahmen: ein Projekt, das Seelecke und sein Team für das
North Carolina Museum of Natural Sciences bearbeitet haben, wo der Flügelschlag jetzt naturgetreu beobachtet werden
kann. Eine weitere Anwendung findet die Technik in einem
Inhalator, der Wirkstoffe zielgenau an den Wirkort in der
Kurznachrichten
Intelligente Drähte mit Gedächtnis bewegen
Bauteile wie künstliche Muskeln
7 40
3 41
So genannte Formgedächtnis-Drähte können Fledermaus-Modelle mit naturgetreuem Flügelschlag zum
»Leben erwecken«, Inhalationsgeräte so steuern, dass
Wirkstoffe exakt am Wirkort landen oder große Lasten
geräuschlos heben und senken. Die Forschergruppen um
die Professoren Stefan Seelecke und Joachim Rudolph
arbeiten gemeinsam an neuen Methoden, um technische
Bauteile präzise zu bewegen.
Die Muskeln des Menschen reagieren auf Nervenimpulse,
indem sie sich zusammenziehen. In der Entspannungsphase
nehmen sie wieder ihre ursprüngliche Form an. Durch dieses
Zusammenspiel von Nervensystem und An- und Entspannung der Muskulatur kann der Mensch Bewegungen steuern.
Nach ähnlichem Prinzip funktionieren die »intelligenten«
Nicole Lewis demonstriert naturgetreue Flügelbewegungen an einer
Modellfledermaus. Foto: UdS
Lunge bringt. Forschungen haben ergeben, dass Wirkstoffteilchen an bestimmten Stellen der Lunge landen, je nachdem
wo genau sie aus dem Mundstück des Inhalators eingeatmet
werden. Mit intelligenten Drähten kann ein Röhrchen im
Mundstück genau in Position gebracht werden, so dass dieses »Wirkstoff-Geschütz« seine Ladung gezielt in die Lunge
»schießen« kann.
urznachrichten aus der Forschung
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Saarbrücker Ingenieure entwickeln ein neuartiges Verfahren, das vorwarnt, wann Rohre, mit denen Erdöl oder
Gas gefördert wird, ausgetauscht werden müssen. Dabei
können sie genau erkennen, welches der einzelnen Rohre
in der oft Hunderte Meter langen Leitung betroffen ist, die
meist im Meer oder tief in der Erde steckt. Ihre Technik
haben sie sie zur Hannover Messe vom 8. bis 12. April auf
dem saarländischen Forschungsstand vorgestellt.
Rohre, mit denen Öl, Gas oder sonstiges aus der Tiefe
gefördert wird, sind großen Belastungen ausgesetzt. Scharfkantige Steine und Geröll, die unvermeidlich mitgerissen
werden, schlagen an die Innenwände. Sand und chemische
Stoffe setzen dem Material zu, plötzliche Druckunterschiede
und Luft- oder Gasblasen sorgen zusätzlich für Strapazen.
Daher verschleißen die Rohre nach einer Zeit – ohne, dass
vorhergesagt werden könnte, wann genau bei welchem Rohr
es soweit ist, da die aneinandergereihten, je zehn Meter langen
Steigleitungen mal hier, mal da besondere Schläge einstekken. Einfach nachschauen können die Ingenieure vor Ort
nicht ohne weiteres – die teils Hunderte von Metern langen
Rohrleitungen liegen unter Wasser oder stecken im Erdreich.
Durch den Einsatz eines »Piezo-Stapelaktors«, der in bestimmten Intervallen und
An einer Lösung dieses Dilemmas arbeitet eine Forschergruppe unter Federführung des Saarbrücker AktorikSpezialisten Professor Stefan Seelecke. Die Wissenschaftler
entwickeln ein Verfahren, das dort sitzt, wo es mit in die Tiefe
kann: am Rohr, oder, genauer gesagt, in der Muffe, die Rohr
mit Rohr unterbrechungsfrei verbindet. Der Clou des Verfahrens erinnert an den alten Western-Trick, mit einem Ohr
an der Schiene zu lauschen, ob ein Zug kommt. – Nur, dass
hier »gelauscht« wird, ob die Rohrwand noch dick genug ist.
Die Forscher setzen in die Muffe am einen Ende des Rohres
einen so genannten »Piezo-Stapelaktor« ein, der ein Signal
in bestimmten Intervallen und Frequenzen ins Material des
Rohres sendet. In der Muffe am anderen Rohrende sitzt ein so
genannter »Piezo-Flächenaktor«, der »lauscht«, wann und wie
diese Signale ankommen. Diese Information leitet der Aktor
an eine zentrale Stelle weiter – ganz so, als würde der an den
Schienen Lauschende die Hand heben, und ein Komplize
würde dies notieren. Sein technisches Pendant sammelt die
gemessenen Daten, übersetzt sie mittels komplexer Algorithmen, wertet sie aus und macht sie blitzschnell sichtbar, indem
es sie in ein Kurvendiagramm überträgt.
Die Saarbrücker Wissenschaftler haben in Experimenten
erforscht, wie sich der Zustand des Rohrs zu den Messungen
des »lauschenden« Aktors verhält. Ihr Ergebnis: Je dünner
die Wandstärke der Rohre ist, desto mehr verschiebt sich
die Reaktion des Rohres auf eine bestimmte SchwingungsAnregung. Bei welcher Frequenz dieses Signal aufgefangen
wird, sagt also zuverlässig aus, wie dick die Rohrwand noch ist.
Derzeit entwickeln die Ingenieure mathematische Modelle, in denen die einzelnen Signale genau den verschiedenen
Rohr-Abnutzungsgraden zugeordnet werden, was sie wiederum durch Experimente nachprüfen und belegen. Auf diese
Weise könnte künftig vor Ort in der Tiefsee regelmäßig und
auf Knopfdruck das Signal in den Rohrleitungen »offshore«
erlauscht werden. Die so gemessenen Daten würden zuverlässig darüber Auskunft geben, wann eines der Rohre gefährlich
dünn und damit reif zur Auswechslung geworden ist. Abgelesen werden könnte diese Vorwarnung an Diagrammen, die
anzeigen, bei welcher Signalfrequenz es kritisch wird. Da die
einzelnen Piezoaktoren miteinander in einem so genannten
Bussystem kommunizieren und verbunden sind, kann außerdem genau gesagt werden, welches der Rohrstücke abgenutzte Wände hat. Wenn die Arbeiter Glück haben, ist ein Rohr
oben betroffen und sie müssen nicht alles heraufholen, was
viel Zeit und Kosten spart.
Professor Seelecke wird in der nächsten Ausgabe von
magazin forschung über seine Forschungsarbeit berichten.
Kurznachrichten
Forscher »erlauschen« Rohrverschleiß
Frequenzen Signale in das Material des Rohres sendet, können Rohrleitungen
überprüft werden. Exakt zu lokalisierende Schadstellen können gezielt freigelegt und
beseitigt werden. Foto: © phokrates – Fotolia.
7 42
3 43
hardware software it-service
Innovativ. Engagiert. Weltweit.
Seit mehr als 30 Jahren entwickelt URSAPHARM innovative, pharmazeutische
Konzepte und setzt diese in erfolgreiche Arzneimittel und Medizinprodukte für
die Augenheilkunde und Allgemeinmedizin um – zum Wohl der Patienten auf
der ganzen Welt.
www.ursapharm.de
URSAPHARM Arzneimittel GmbH, Industriestraße 35, 66129 Saarbrücken, www.ursapharm.de
Fly UP