Comments
Description
Transcript
forschung magazin g 2013
magazin g forschung Mai 2013 2,5-MW-Plattform Die Innovative 1,5-MW-Plattform Die Erfolgreiche Zuverlässige VENSYS-Technologie in zwei bewährten Leistungsklassen. VENSYS-Windenergieanlagen überzeugen mit Permanentmagnet-Technologie, Direktantrieb, Vollumrichtersystem und VENSYS-Pitchsystem. Und das weltweit – mit bereits über 13.000 MW* installierter Gesamtleistung. * Stand Dezember 2012 Direktantrieb PermanentmagnetTechnologie www.vensys.de Vollumrichtersystem VENSYSPitchsystem Luftkühlung magazin forschung Theoretische Physik Prof. Dr. Dr. Karsten Kruse 4 Neuer Sonderforschungsbereich SFB 1027 untersucht die Physik lebender Zellen 5 Selbstorganisation und Transport Theoretische Physik Prof. Dr. Christian Wagner 8 Adhäsion und Aggregation Experimentalphysik Prof. Dr. Albrecht Ott 9 Molekulare Kooperativität Experimentalphysik Univ.-Prof. Dr. Martin Dietrich Dipl.- Kffr. Nadine Molter 12 Die Messung und Darstellung der Images von Gesundheits-Dienstleistern Betriebswirtschaftslehre, insb. Management des Gesundheitswesens Prof. Dr.-Ing. Michael Vielhaber Dr. Christian Müller 20 Zukunftswerkstatt Mobilität – Plattform zur Mobilitätsforschung an der UdS Konstruktionsforschung Intelligente Benutzerschnittstellen Prof. Dr. Achim Langenbucher Nichtgleichgewichts-Prozessen in biologischen Systemen – von Physikern, Biologen und Medizinern untersucht werden. Namentlich gekennzeichnete Beiträge geben nicht unbedingt die Meinung des Herausgebrs wieder. Titelmotiv: Menschliche Zellen, wie sie im neuen Sonderforschungsbereich SFB 1027 – Physikalische Modellierung von Anzeigenverwaltung und Druck: VMK – Verlag für Marketing und Kommunikation GmbH, Tel.: 06243/909-0, Fax: 06243/909-400, www.vmk-verlag.de ISSN: 0937-7301 Preis: EURO 2,50 Fotos: wenn nicht anders gekennzeichnet, eigenes Archiv der Autoren. Motiv S. 12: © arnd/photocase.com Postfach 15 11 50, 66041 Saarbrücken, Tel.: 0681/302-2656, Fax:0681/302-4270, E-Mail: [email protected]. Erscheinungsdatum: Mai 2013 Präsidialbüro, Tel.: 0681/302-3886 Satz und Gestaltung: Maksimovic & Partners, Agentur für Werbung und Design GmbH Vertrieb: Präsidialbüro der Universität des Saarlandes, Impressum /// Herausgeber: Vizepräsident für Forschung und Technologietransfer, Prof. Dr. Matthias Hannig, Universität des Saarlandes. Redaktion: Beate Wehrle, Prof. Dr. Heiko Rieger 1/13 Dipl.-Phys. Marc Kannengießer 25 Maßgeschneiderte Sehqualität durch experimentelle Grundlagenforschung Experimentelle Ophthalmologie Professor Dr. Margrit Grabas Dr. Veit Damm Wirtschafts- und Sozialgeschichte Prof. Dr. Christian Boller Dr. Jochen H. Kurz Zerstörungsfreie Prüfung und 30 Historische Wirtschaftskrisen als Lehrstücke – Investitionen in die Realwirtschaft zahlen sich aus 34 Alternde Infrastruktur und wie man mit zerstörungsfreier Prüfung diagnostisch im Bauwesen helfen kann Qualitätssicherung Kurznachrichten 40 Aus der Forschung Neuer Sonderforschungsbereich SFB 1027 untersucht die Physik lebender Zellen Prof. Dr. Heiko Rieger Theoretische Physik Die Universität des Saarlandes hat seit dem 1.1.2013 einen neuen Sonderforschungsbereich, in dem ein interdisziplinäres Konsortium von 24 Wissenschaftlern aus Physik, Biologie und Medizin grundlegende physikalische Mechanismen in lebenden Zellen untersucht. Unter dem Titel SFB 1027 »Physikalische Modellierung von Nichtgleichgewichts-Prozessen in biologischen Systemen« gehen die Forscher in stark fächerübergreifenden Projekten den Mechanismen von Zellbewegung, intra-zellulären Transport-Prozessen, Bakterienhaftung an Oberflächen und molekularer Kooperativität auf den Grund. Zunächst fördert die Deutsche Forschungsgemeinschaft das interdisziplinäre Vorhaben über vier Jahre mit 9,1 Millionen Euro. Wie übersetzt man einen Vorgang in einer lebenden Zelle in mathematische Gleichungen – und was kann man aus diesen Gleichungen für ähnliche zellbiologische Prozesse lernen? Diese Fragen interessieren Professor Heiko Rieger, den Sprecher des Sonderforschungsbereiches SFB 1027. Die zentrale Fragestellung des neuen Sonderforschungsbereiches SFB 1027 lautet:Wie kann man die Entstehung komplexer Funktionen lebender Zellen durch das Zusammenwirken vieler beteiligter Moleküle verstehen? Eine solche Funktion ist die Migration von Zellen, die sich hierbei anscheinend zielgerichtet durch den Raum bewegen, zum Beispiel um als Immunzellen Bakterien oder Tumorzellen zu vernichten. Biologen und Mediziner haben im Laufe der letzten Jahrzehnte raffinierteste Techniken entwickelt, um die bei solchen zellbiologischen Vorgängen beteiligten Proteine zu identifizieren und deren Struktur und Funktion zu erforschen. Das Problem ist, dass die Migration von Zellen nirgendwo in deren molekularer Struktur kodiert ist – letztere legt lediglich die spezifischen chemischen Wechselwirkungen und in einigen Fällen mechanische Wirkungen der einzelnen Proteine fest. Und genau auf diese Wechsel- und mechanischen Wirkungen in einem System mit vielen Teilchen kommt es an, will man komplexe Zellfunktionen wie Migration verstehen. So haben Physiker mit Hilfe von theoretischen Modellen gezeigt, dass Migration ein recht allgemeines emergentes Phänomen aktiver Materie ist. Nur wenige Proteinsorten, die in bestimmter Weise wechselwirken und mechanische Kräfte entfalten, reichen hierbei aus (z. B. Aktin-Monomere, molekulare Motoren, Nu- kleatoren und ATP als Energie-Lieferant). Durch deren Zusammenwirken in großer Anzahl entstehen neue makroskopische Eigenschaften, die man mit Methoden der statistischen Physik studieren kann. Um also die zellbiologische Funktion zu verstehen, braucht man Informationen über den physikalischen Mechanismus und über die Eigenschaften der beteiligten Proteine – das heißt, man braucht eine intensive Zusammenarbeit von Physikern auf der einen und Biologen und Medizinern auf der anderen Seite. Diese Idee stand am Anfang des Sonderforschungsbereiches: Eine interdisziplinäre Forschungsinitiative von Physikern und Lebenswissenschaftlern, die grundlegende physikalische Mechanismen in lebenden Zellen untersucht. Der so entstandene Forschungsverbund an der UdS ist insofern einzigartig, als dass an allen Forschungsprojekten sowohl Physiker als auch Lebenswissenschaftler beteiligt sind: So ist garantiert, dass die physikalische Forschung immer an einem konkreten biologischen System orientiert bleibt, welches in einer beteiligten lebenswissenschaftlichen Arbeitsgruppe untersucht wird, und dass die biologische und medizinische Forschung immer die physikalischen Aspekte ihres untersuchten biologischen Systems im Auge behält. Folglich ist die Entwicklung theoretischer Konzepte zum Verständnis der durchgeführten Experimente ein zentraler Die Projektleiter/innen des neuen Sonderforschungsbereiches SFB 1027, von links nach rechts: Dr. Ivan Bogeski, Dr. Reza Shaebani, Prof. Dr. Dr. Karsten Kruse, Dr. Bin Qu, Prof. Dr. Matthias Hannig, Susanne Balzert, Dr. Franziska Lautenschläger, Prof. Dr. Karin Jacobs, Prof. Dr. Peter Lipp, Prof. Dr. Jutta Engel, Prof. Dr. Ludger Santen, Dr. Barbara Niemeyer, Prof. Dr. Heiko Rieger, Prof. Dr. Ralf Seemann, Prof. Dr. Christian Wagner, Prof. Dr. Markus Hoth, Prof. Dr. Albrecht Ott, Pascal Giehr, Prof. Dr. Volkhard Helms, Prof. Dr. Verena Wolf, Dr. Markus Bischoff. Fokus des SFB, welcher schon im Titel durch den Begriff der »physikalischen Modellierung« zum Ausdruck gebracht wird. Physiker versuchen, die detaillierte Sichtweise eines Biologen auf molekulare Prozesse so weit zu abstrahieren und zu einer ›gröberen‹ Beschreibung zu kommen, bis sie allgemein gültige naturwissenschaftliche Prinzipien dahinter erkennen. Die Entdeckung solcher Mechanismen in einem speziellen System ist vermutlich auch auf ähnliche Abläufe in anderen Zellen übertragbar, wodurch man wieder neue Erkenntnisse gewinnt. Diese Erkenntnisse aus der Grundlagenforschung könnten in der Zukunft wichtig sein, um Anwendungen in der Medizin zu ermöglichen, die heute noch nicht möglich sind. So besitzen die im SFB untersuchten biologischen Systeme durchweg eine medizinische Relevanz: Immunzellen, Herzzellen, rote Blutzellen, staphylococcus aureus, DNA-Methylierung, A/B-Toxine und dentale Biofilme. Alle im SFB untersuchten dynamischen Prozesse sind fern vom thermodynamischen Gleichgewicht – was für biologische Prozesse, die beständig Energie konsumieren, fast tautologisch ist. Aus physikalischer Perspektive sind NichtGleichgewichtsprozesse – im Vergleich mit dem thermodynamischen Gleichgewicht – nur unzureichend verstanden und erfordern zu ihrer Erforschung die Entwicklung neuer theoretisch-physikalischer Methoden. Diese im SFB zu entwickelnden Methoden werden dann auch auf andere biologische Systeme anwendbar sein. In 17 Teilprojekten gehen 24 Wissenschaftler dem physikalischen Verständnis von biologischen Prozessen in diesem Sonderforschungsbereich nach. Er ist in die drei Teilbereiche »Selbstorganisation und Transport«, »Adhäsion an Membranen und Oberflächen« sowie »molekulare Kooperativität« gegleidert, die auf den folgenden Seiten kurz vorgestellt werden. Selbstorganisation und Transport Theoretische Physik Prof. Dr. Dr. Karsten Kruse Theoretische Physik 7 4 3 5 Blickt man in das Innere einer Zelle, so stellt sich einem zunächst einmal ein verwirrendes Durcheinander vieler verschiedener Komponenten dar. Proteine und andere Moleküle tummeln sich auf engstem Raum und vollführen einen Tanz, dem eine Funktion oder ein Sinn nur schwer abzulesen sind. Geht man aber einen Schritt zurück, so erkennt man supramolekulare Strukturen, die in scheinbar zielgerichteter Art und Weise miteinander wechselwirken und es der Zelle ermöglichen, zu wachsen, sich fortzubewegen und zu teilen. Welchen Regeln die molekularen Spieler folgen, um funktionierende größere Einheiten zu bilden, ist Gegenstand der Arbeiten von Prof. Dr. Markus Hoth und Dr. Bin Qu (Biophysik), Dr. Konstantin Doubrovinski, Prof. Dr. Dr. Karsten Kruse, Prof. Dr. Heiko Rieger, Prof. Dr. Luger Santen und Dr. Reza Shaebani (Theoretische Physik), Prof. Dr. Jutta Engel (Biophysik), Prof. Dr. Peter Lipp (Molekularbiologie) und Prof. Dr. Manfred Schmitt (Molekularbiologie) im Projektbereich A – Selbstorganisation und Transport des Sonderforschungsbereichs S fB 1027. Konkret werden diese Fragen an Systemen untersucht, die vom intrazellulären Transport und der Signalverarbeitung, über die Organisation von Zellen des Immunsystems bis zur koordinierten Aktivität im sich entwickelnden Gehör reichen. Wie auch in den anderen Projektbereichen ist der zugrundeliegende Leitgedanke, dass physikalische Prinzipien beim Verständnis der Organisationsprozesse eine wesentliche Rolle spielen werden. Diese Idee soll im Folgenden an zwei Beispielen etwas detaillierter vorgestellt werden. Zelluläre Selbstorganisation Kurz nachdem unser Körper eine Infektion ausgemacht hat, werden spezielle weiße Blutkörperchen, sogenannte T-Zellen, ausgesendet, um infizierten Zellen den Garaus zu machen und damit den Organismus zu retten. Wie aber finden diese T-Zellen ihre Ziele? Allgemein gilt, dass wenn man keinen Anhaltspunkt hat, wo sich ein gesuchtes Objekt befinden könnte, so streunt man am besten ziellos herum. Betrachtet man die T-Zellen in einer Petrischale, so bewegen Zellen beobachtet. Eine vielversprechende Idee ist, dass diese Wellen das Zusammenwirken der verschiedenen Bestandteile des Aktin-Netzwerks orchestrieren. Doch wie kommen diese Wellen zustande? Die Analyse physikalischer Modelle der Dynamik im Aktin-Zytoskelett zeigt, dass die Wellen spontan entstehen können, das heißt, keines äußeren Koordinators bedürfen. Ein möglicher Mechanismus beruht auf dem Wechselspiel zwischen Aktin-Filamenten und Proteinen, die neue Filamente erzeugen bzw. deren Wachstum fördern, siehe Abb. 1: Bewegung von menschlichen T-Zellen. Die farbigen Punkte markieren die Aufenthaltsorte der T-Zellen zu verschiedenen Zeitpunkten. sie sich tatsächlich ungeordnet. Allerdings gibt es verschiedene Arten, sich ungeordnet zu bewegen. Z. B. kann man nach jedem Schritt seine Richtung wechseln oder aber diese mit gewisser Wahrscheinlichkeit beibehalten. In der Tat scheint diese sogenannte »persistente« Zufallsbewegung für die Suche nach einem Ziel unter vielen Umständen optimal zu sein, d. h. die Zeit, um ein Objekt zu finden, ist geringer als für andere Zufallsbewegungen. Experimente an humanen T-Zellen deuten darauf hin, dass diese der Strategie einer persistenten Zufallsbewegung folgen. Wie aber erzeugen die Zellen diese Art der Zufallsbewegung? Auf molekularer Ebene wird die Zellbewegung durch das Aktin-Zytoskelett getrieben. Dieses ist ein Netzwerk fadenartiger Polymere, der Aktin-Filamente, die mit einer Vielzahl anderer Proteine wechselwirken. Die für die Bewegung nötigen Kräfte und Spannungen erzeugt das Proteinnetzwerk über verschiedene Mechanismen. Zum einen durch die Polymerisation von Aktin-Filamenten, zum anderen durch die Wirkung molekularer Motoren, welche chemische Energie in mechanische Arbeit umwandeln können und dadurch AktinFilamente gegeneinander verschieben. Erst wenn diese Prozesse auf zellulären Skalen koordiniert werden, kann die Zelle dadurch auf einer Oberfläche kriechen: die vordere Kante der Zelle wird durch Aktin-Polymerisierung vorgetrieben, die Motoren ziehen dann das entstandene Aktin-Netzwerk zusammen und ziehen so den Zellkörper mit. Verschiedene Gruppen haben in den letzten Jahren spontane Polymerisierungswellen im Aktin-Zytoskelett lebender Abbildung 2. Eine Reihe dieser Nukleatoren genannten Moleküle sind nur dann aktiv, wenn sie an die Zellmembran gebunden sind. Dort sorgen sie für die Bildung neuer Filamente. Im Gegenzug inaktivieren Filamente die Nukleatoren, indem sie diese von der Membran ablösen. Hat sich spontan durch Fluktuationen eine Front der Nukleatoren mit nachfolgenden Filamenten gebildet, so kann sich eine stabile Welle entwickeln, da die durch die Filamente abgelösten Nukleatoren bevorzugt vor der Front wieder an die Membran binden und aktiviert werden. Auf der anderen Seite verhindern die vorhandenen Filamente ihre Aktivierung. Auf diese Weise wird die Front vorangetrieben. Im Rahmen des SFBs werden diese Prozesse weiter untersucht. Insbesondere stellt sich die Frage, was für Bewegungsmuster diese Wellen erzeugen können. Es ist zu erwarten, dass die Wellenform und damit das Bewegungsmuster von den Systemparametern also beispielsweise der Polymerisierungsrate oder der Anzahl der Nukleatoren abhängt. Durch Regelung dieser globalen Parameter könnte die Zelle dann ihr Verhalten steuern und insbesondere ihre Suchstrategie äußeren Bedingungen anpassen. Zelluläre Signalübertragung Auch wenn eine Zelle sich selbst organisiert, so muss sie doch auf äußere Signale reagieren können. Oft sind diese Signale nur von kurzer Dauer und räumlich lokalisert. Wie kann die Zelle auf solche Signale reagieren, wie kann sie echte Signale von zufälligen Fluktuationen unterscheiden? Abb. 2: Schematische Darstellung molekularer Prozesse, die zu zellulären (4) Polymerisationswellen im Aktin-Zytoskelett führen können: Aktin-Filamente depolymerisieren. (5, 6) »Laufbanddynamik« der Aktin-Filamente: in diesem Zustand wachsen (1) Nukleatoren binden an die Membran und werden dadurch aktiviert. sie an einem Ende und schrumpfen am anderen. Durch das Wachstum (2) Nukleatoren erzeugen neue Aktin-Filamente. können sie die Membran mittels der Kraft F ausstülpen. (3) Aktin-Filamente lösen die Nukleatoren von der Membran und Theoretische Physik inaktivieren sie dadurch. 7 6 3 7 Eine mögliche Antwort auf diese Frage liefern Eigenschaften der Proteinkinase C (PKC). Dieses Molekül integriert zwei verschiedene Signalpfade. Zum einen muss es an Calcium-Ionen binden. Calcium ist ein universeller sekundärer Botenstoff, das heißt, viele externe Signale werden von der Zelle zunächst in ein Calcium-Signal umgewandelt und dann weiterverarbeitet. Zum anderen muss die PKC an ein Membranmolekül binden, welches ebenfalls als Reaktion auf ein externes Signal erzeugt wird. Dadurch, dass beide Moleküle vorhanden sein müssen, um das Signal über die PKC weiterzuleiten, wird die Wahrscheinlichkeit, Fluktuationen als Signale zu interpretieren, deutlich verringert, denn gleichzeitig auftretende Fluktuationen in zwei verschiedenen Signalketten sind sehr unwahrscheinlich. Um ein räumliche lokalisiertes Signal zu detektieren, darf dieses aber auch nicht zu lange andauern. Durch die Diffusion werden nämlich räumliche Heterogenitäten ausgeglichen. Andererseits muss die PKC für eine genügend lange Zeit »angeschaltet« bleiben, um die nachfolgende Signalkaskade in Kraft zu setzen. Wie kann man diese beiden widersprüchlichen Anforderungen – kurze Signalzeit, lange Aktivität von PKC – gemeinsam erfüllen? Hier kommt eine Beobachtung ins Spiel, die im Rahmen des SFBs weiter untersucht werden soll: Die PKC kann länger an die Membran gebunden und damit aktiv bleiben als das Calciumsignal andauert, siehe Abbildung 3. Ein einzelnes PKC-Molekül kann dieses allerdings nicht. Erst, wenn mehrere PKC-Moleküle zusammenwirken, ist dieses Phänomen zu beobachten. Dieses Verhalten kann durch verschiedene Mechanismen erklärt werden. Die dem SFB-Projekt zugrundeliegende Hypothese ist, dass einige PKC-Moleküle einen Komplex bilden, in dem sich die Moleküle gegenseitig im aktiven Zustand stabilisieren. Diese Hypothese ist in ein physikalisches Modell implementiert worden. Simulationen dieses Modells haben gezeigt,dass die Komplexbildung tatsächlich verschiedene an zellulärer PKC gemachte experimentelle Beobachtungen erklären kann. In einem zweiten Schritt werden jetzt Experimente durchgeführt, die die Möglichkeit einer Komplexbildung durch PKC untersuchen. Dazu werden im Rahmen des SFB 1027 fluoreszenzmikroskopische Methoden eingesetzt. Etwa eine Hälfte der PKC-Moleküle wird mit einem gelb fluoreszierenden Molekül markiert, die andere Hälfte mit einem grün fluoreszierenden. Bestrahlt man die Zelle mit einem geeigneten Laser, so werden nur die gelb fluoreszierenden Moleküle angeregt. Sind diese isoliert, leuchtet die Zelle an den entsprechenden Stellen gelb. Befindet sich allerdings ein grün fluoreszierendes Molekül sehr dicht in der Nähe – so dicht, wie es nur vorkommt, wenn die beiden Moleküle ein Paar bilden – , dann schnappt es sich das Licht vom gelben und leuchtet selbst, während die gelbe Fluoreszenz verschwindet. Die Zelle leuchtet jetzt an diesen Stellen grün. Erste Ergebnisse von Experimenten, die sich dieser Methode bedienen, unterstützen die Hypothese, dass die PKC Moleküle tatsächlich einen Komplex bilden. a) b) c) Abb. 3: Fluoreszenzmikroskopische Aufnahme von PKC-Clustern an der Zellmembran. a) Zeitliche Entwicklung des Fluoreszenzsignals in den in (b1) markierten Punkten. b) Momentaufnahmen der Fluorszenzintensität in einem Membranbereich. c) Raum-Zeit-Darstellung der Fluoreszenzintensität entlang der gestrichelten Linie in (b4). Warme Farben entsprechen hohen Fluoreszenzintensitäten und damit einer großen PKC-Dichte, kalte Farben geringen Dichten. Ein lokales Calciumsignal dauert maximal eine Sekunde, lokal hohe PKC-Konzentrationen können etwa 10-mal länger an der Membran gemessen werden. Die beiden Beispiele zeigen, wie lokale physikalische Wechselwirkungen zwischen Molekülen zu supramolekularen Strukturen führen können, die lebenswichtige zelluläre Prozesse ermöglichen, und wie physikalische Methoden eingesetzt werden, um diese Prozesse zu untersuchen. Adhäsion und Aggregation Prof. Dr. Christian Wagner Experimentalphysik Der Projektbereich B behandelt vor allem die Adhäsion Zahnoberflächen. In einem weiteren Projekt unter der Leivon Proteinen und Zellen an präparierten Oberflächen und tung von Prof. Ralf Seemann (Experimentalphysik) und Membranen. Insbesondere von Interesse sind dabei die Fra- Dr. Jean Baptiste Fleury (Experimentalphysik) wird zum gestellungen: Wie werden die adhäsiven Eigenschaften durch einen in mikrofluidischen Modellexperimenten das Fusionsdie Wechselwirkung zwischen mehreren – gegebenenfalls un- verhalten von Lipidmembranen als Modell für die Fusion von terschiedlichen – Proteinen bzw. Zellen beeinflusst? In drei Vesikeln bei der Übertragung von Neurotransmittern untervon insgesamt fünf Projekten wird unter Leitung von Prof. sucht. Im fünften Projekt wird schließlich das AggregationsKarin Jacobs (Experimentalphysik), Prof. Mathias verhalten von roten Blutzellen in physiologischer Strömung Hermann (Infektionsmedizin), Prof. Ludger Santen studiert, was hier exemplarisch näher dargestellt werden soll. Es gibt mindestens drei Hauptklassen der Aggregation (Theoretische Physik) und Prof. Matthias Hannig (Klinik für Zahnerhaltung) die Bildung von Biofilmen studiert, von roten Blutzellen. Betrachtet man Blut von gesunden das heißt, die Adhäsion und Aggregation von Biomolekü- Spendern unter dem Mikroskop, lassen sich immer Aggregate len und Zellen auf synthetischen und organischen Ober- roter Blutzellen beobachten, die aufgrund ihrer Ähnlichkeit flächen. Dabei wird ausgehend von möglichst einfachen mit Geldrollen Rouleaux genannt werden (Abb. 4a). Dieser Systemen die Komplexität bezüglich der Organisation der Aggregationsprozess ist reversibel und in der Blutströmung räumlichen Anordnung und der Wechselwirkung zwischen können diese Rouleaux gegebenenfalls aufgebrochen werden, den beteiligten Komponenten nach und nach erhöht. Was so dass die roten Blutzellen Kapillaren durchströmen könsind die grundlegenden physikalischen Prinzipien, die die nen, die kleiner sind als der Durchmesser der Zellen. AußerStrukturen und Funktionen dieser Biofilme bestimmen, dem aggregieren rote Blutzellen auch bei der Blutgerinnung. lautet die zentrale Frage. Um diese zu beantworten wird Schließlich ist es bekannt, dass bei Krankheiten wie Malaria die Bildung von Biofilmen sowohl theoretisch als auch ex- oder Sichelzellanämie die roten Blutzellen zur Verklumpung perimentell untersucht. Beispiele sind Biofilme von Sta- neigen. Da die roten Blutzellen ca. 45 vol % des Blutes ausmaphylokokken Aureus oder die initiale Biofilmbildung auf chen, ist eine genaue Kenntnis ihres Aggregationsverhaltens für ein quantitatives Verständnis des Strömungs- und Gerinnungsverhalten von Blut unabdingbar, und im Rahmen des SFB-Projekts sollen die ersten beiden genannten Fälle der Aggregation untersucht werden. Die physikalischen Mechanismen, die der Bildung von Rouleaux zugrunde liegen, werden in der Literatur kontrovers diskutiert. Ein möglicher Mechanismus beruht auf Mitt un Mi u se ere rer er Pro Proj Pr ojek oje ekte kterf rfah ahru ru ung ng Verarmungskräften, das heißt, dass es zu einer Verarmung geli ge ling ngtt ess IIhn ng hn nen en,, be beliebi big viele (engl. depletion) von Makromolekülen zwischen den roten Cllie ient ntt-S -Sys Sys yste tem te me m e mit it e ein iin nem m Kli lick ck Blutzellen kommt (Abb. 4b). Die Makromoleküle werden näauszzur au urol olle ol le en o od de der err an Ve Verä rä änd n eherungsweise als Kugeln mit Durchmesser d betrachtet. Aus ru ung gen n anzzupas up passen! geometrischen Gründen können sie mit ihrem Schwerpunkt nicht näher an die Zelloberfläche als ihr halber Durchmesser Miit un M unse s re en Lö ösu ungen zu urr Des esk kkommen. Wenn nun zwei Zellen in Kontakt kommen, überto op p-- und Anw wen endun ng gsv svir i tua alappen sich diese nicht erreichbaren Bereiche und es wird l siier li erun ung g können n Sie mitt IIhren en n effektiv mehr Volumen für die Makromoleküle frei. Dieser Programm Pr mm men n und Dat a en arrb bei ei-rein entropische Effekt führt zu einem osmotischen Druck, te en wo o und d wan ann Si Sie ew wo oll lle en e n. der die Zellen aneinanderpresst. Der Verarmungseffekt ist in S hn Sc hnel elll un el und si sich c er. err. Zu um Be Beis isspi p el el kollodialen Suspensionen intensiv studiert worden und dort auf de au dem m iPad iiP Pad d von von n zzuh uh hau ausse e ode der inzwischen gut verstanden. unte un te erw rweg we eg gs im i H Hot o ell. ot Zur Überprüfung des Modells und um quantitative Daten bezüglich der auftretenden Kräfte zu erhalten, wurde die Wechselwirkung zwischen zwei roten Blutzellen für verhartec ecch isst Ih hr komp pet eten en nte er CITRIX Xschiedene Makromolekülkonzentrationen mit einem atomic un nd vvm mwa w re-Pa artner vor or O Ort rt. force microscope (AFM) bestimmt (Abb. 4c). Die gewonnenen Daten ließen sich gut mit dem Verarmungsmodell erklären. In einem weiteren Schritt wurde in einer Mikrofluidik untersucht, ob die so gebildeten Aggregate auch in Mikrokapillaren unter physiologischen Strömungsbedingungen zu beobachten wären. Dies war in der Tat der Fall und konnte inzwischen Lösungen für Rechenzentren auch durch numerische Simulationen bestätigt werden. www.hartech.de b) a) Abb. 4: a) Fotografie eines Rouleau aus sieben roten Blutzellen c) c) b) Skizze des Verarmungsmodells: Der weiße Bereich um die roten Kraftmessung mit einem AFM zwischen zwei Blutzellen in einer Lösung aus Makromolekülen (dextran, Mw 150.000 amu). Blutzellen ist bezogen auf ihren Schwerpunkt für die Polymere nicht erreichbar. Wenn zwei große Blutzellen nahe beieinander liegen, überlappen die weißen Bereiche, und den Polymeren steht effektiv mehr freies Volumen zur Verfügung. Die Blutgerinnung oder auch Koagulation ist ein komplexer Prozess, der viele kollektive Komponenten involviert. Grob gesprochen startet der Prozess mit der Aktivierung der Blutplättchen, die wiederum Botenstoffe aussenden, die die Koagulationskaskade starten. Die roten Blutzellen spielen in dieser Kaskade keine zentrale Rolle, aber bei der Frage nach den (strömungs-)mechanischen Eigenschaften eines Gerinnsels kommt den roten Blutzellen allein wegen ihres großen Volumenanteils im Blut eine besondere Bedeutung zu. In der Regel geht man davon aus, dass rote Blutzellen nur im Fibrinnetzwerk gefangen werden, aber jüngere Studien haben gezeigt, dass rote Blutzellen nach Aktivierung durch die Plättchen anfangen, aktiv miteinander zu verkleben (ref 2). Mit den oben beschriebenen Techniken sollen auch für den Fall der Blutplättchen-induzierten Aggregation experimentelle und theoretische Modelle entwickelt werden, die in Zukunft eine exaktere Beschreibung der Thrombusbildung erlauben und gegebenenfalls auch bei der Patientenbehandlung zum Beispiel bei der Bewertung von Aneurysmen bzgl. ihres Risikos einer Thrombose in der Blutströmung eingesetzt werden können. Molekulare Kooperativität Experimentalphysik Prof. Dr. Albrecht Ott Experimentalphysik 7 8 3 9 Im Teilbereich C werden Phänomene molekularer Kooperativität im Kontext verschiedener zellbiologischer Funktionen untersucht. Unter dem Begriff der ›molekularen Kooperativität‹ versteht man dabei, dass molekulare Komponenten durch ihre Interaktionen neue funktionelle Eigenschaften des Systems generieren, die nicht am einzelnen Element selbst direkt ablesbar sind Ein klassisches Beispiel für Kooperativität in der Physik wie im täglichen Leben sind Phasenübergänge wie zum Beispiel der Übergang von dem festen in den flüssigen Zustand. Es ist wohlbekannt, dass eine sehr kleine Temperaturerniedrigung von weit weniger als 1 °C ausreichen kann, um Wasser vollständig von einer Flüssigkeit in einen Eisblock zu verwandeln. Die makroskopische Eigenschaft des Ganzen (fest oder flüssig) ist aber von den Eigenschaften der einzelnen Wasserteilchen, den H 2 O Molekülen, nicht ablesbar, denn diese Moleküle verändern ihre Eigenschaften in dem engen Temperaturbereich des Übergangs nicht. Es ist vielmehr die Kopplung der zahlreichen Moleküle durch mo- lekulare Kräfte, die einen abrupten Übergang hervorbringt. Wasser ist nur ein Beispiel, denn alle Stoffe verhalten sich im Übergang gleich. Obwohl ihre chemisch-physikalischen Eigenschaften ganz verschieden sein können, bleibt die Natur des Phasenübergangs davon gänzlich unberührt. Entscheidende Elemente der Theorie der Phasenübergänge wurden um die 1940er Jahre entwickelt, aber erst vor 30 Jahren wurde mit der Renomierungsgruppentheorie endlich ein konsistenter Rahmen sogenannter kritischer Phänomene geschaffen. Auch in der Biologie spielt molekulare Kooperativität eine große Rolle. So kann man zwar die spezifische Bindung von zwei Biomolekülen im Detail beschreiben, aber wie die zahllosen Moleküle und Bausteine der Zelle bei der Zellteilung selbstorganisiert zusammenarbeiten, ist weit von dem entfernt, was wir messen oder gar verstehen können. Es ist von zentraler Bedeutung zu verstehen, wie Zellen ihre Erbsubstanz fehlerlos kopieren und nutzen oder wie Prote- ine oder dynamische zelluläre Strukturen (Membrantransport) über einen längeren Zeitraum in einem bestimmten (z. B. aktivierten) Zustand gehalten werden. Im Unterschied zum klassischen Phasenübergang einfacher Moleküle wird häufig die Funktionalität großer biologischer Moleküle, deren funktionelle und räumliche Zustände durch Prozesse wie Aufschmelzen (DNA), Entfalten (Proteine) oder Entwinden (DNA und Proteine) verändert werden, von einer kooperativen Eigendynamik bestimmt. Die Projekte im Bereich C haben das gemeinsame Ziel zu einem tieferen molekularen Verständnis einzelner kooperativer Phänomene zu kommen. Im Projekt von Professor Ott konnte bereits gezeigt werden, dass die spezifische Paarung von DNA Molekülen von der Präsenz anderer DNA Moleküle abhängen kann, obwohl dies gemäß der Struktur nicht zu erwarten wäre. Weniger stark bindende, andere DNA Moleküle beeinflussen die Kooperativität des DNA Doppelstrangs, so dass dieser seinen entsprechenden Bindungspartner trotz vieler umgebender, konkurrierender Moleküle fehlerlos erkennt. In weiteren Experimenten wird die kooperative Bindung von Proteinen an bestimmte Kontrollabschnitte der DNA genauer untersucht. Transkriptionsfaktoren im lebenden System? Wie werden DNA-Methylierungsmuster einzelner Moleküle erkannt und auf die DNA in Tochterzellen kopiert? Welche Enzyme kooperieren, um Methylierungsmuster in der DNA neu zu setzen und zu erhalten? Die Versuche hierzu werden in Bakterien und in der Maus durchgeführt. Durch interdisziplinäre Ansätze werden dabei neue Einsichten in die molekulare Welt kooperativer, epigenetischer Zellprogramme gewonnen. Ein anderer Problemkomplex betrifft Zellen des Immunsystems, T-Zellen, die zu den weißen Blutkörperchen gehören. Bei der Aktivierung dieser Zellen werden Kalziumionen mobilisiert. Ein anderes Element der Aktivierung ist die Produktion von oxidierenden Molekülen wie beispielsweise H 2 O 2 zum einen durch die T Zellen selber, zum anderen durch benachbarte Phagozyten (Fresszellen). Man beobachtet, dass der oxidative Stress sowohl zu einer Erhöhung als auch zu einer Erniedrigung der Kalziumkonzentration führen kann, u. a. durch Aktivierung oder Inhibition bestimmter Ionenkanäle. Hier (Gruppe B. Niemeyer und I. Bogeski) soll die Kalziumsignalkette besser verstanden werden und der quantitative Zusammenhang zwischen oxidativem Stress und Abb 5: Schema eines epigenetischen Transkriptionsschalters einer Bakterie (E. coli). Im nicht methylierten Fall besetzt der Transkriptionsfaktor L R P die D N A an den Stellen 1, 2, 3 und verhindert Transkription. Methylierung verhindert die Bindung von LRP in kooperativer Weise und bewirkt, dass das Gen GFP durch Enzyme abgelesen werden kann. Diese speziellen Proteine, sogenannte Transkriptionsfaktoren, binden an definierte Schaltstellen der DNA, um die Information sinnvoller Genabschnitte abzulesen. Diese Bindung kann durch epigenetische Veränderungen (DNA-Methylierung) einzelner DNA-Bausteine moduliert werden (Abb. 5). Epigenetischen Veränderungen verändern nicht die Abfolge (Sequenz) der DNA-Bausteine, sie verändern aber die Erkennung und das Bindungsverhalten von Proteinen an die DNA. Diese Form der zusätzlichen epigenetischen Steuerung der Geninformation ist für die Zelle essentiell. Fehler in der epigenetischen Feinregulierung führen zu Fehlentwicklungen von Zellen und komplexen Erkrankungen wie z. B. Krebs. Mit Hilfe genauester Methoden kann man die An- und Abwesenheit epigenetischer Markierungen auf der DNA an Einzelmolekülen feststellen. Komplementär zu den biophysikalischen in vitro Analysen der AG Ott (Biophysik) werden in zwei weiteren Teilprojekten durch die AGs Walter, Wolf und Helms gemeinsam Fragen zur biologischen Bedeutung der DNA-Methylierung bearbeitet: Wie beeinflusst die DNA Methylierung die kooperative Erkennung von DNAdurch Kalziumsignalen mathematisch modelliert werden (Gruppe H. Rieger). Die Frage dabei ist, wie die molekularen Elemente letztendlich die beobachteten, definierten Kalziumsignalmuster erzeugen. Abb 6: Hypothetisches Modell für die durch SNARE stimulierte Membranfusion. SNAREs auf dem Vesikel (blau) binden mit SNAREs auf der Membran (rot) und bringen das Vesikel zur Hemifusion. Kalziumabhängige weitere Schritte der Fusion führen zur vollständigen Membranfusion und Öffnung des Vesikels. Experimentalphysik Die Ca ++ -abhängige Freisetzung von Botenstoffen ist das Elementarereignis interneuronaler Kommunikation und beruht auf der Verschmelzung intrazellulärer, membranumschlossener Speicherelemente (Vesikel) mit der äußeren Membran der Zelle. Präzision, Geschwindigkeit und Modulation dieses Prozesses, der auch als Exozytose bezeichnet wird, sind wesentliche funktionelle Parameter bei der Informationsverarbeitung im zentralen Nervensystem. Wie wir heute wissen, bilden sich bei der Ausschüttung des Botenstoffes Proteinkomplexe aus sogenannten SNARE-Proteinen zwischen den fusionierenden Membranen und vermitteln den Verschmelzungsprozess der beiden Doppelschichten aus Lipiden (Abb. 6). Es wird vermutet, dass die membranver- 7 10 3 11 bindenden Interaktionen der SNARE-Proteine einen unmittelbaren Kontakt zwischen Vesikel und Zellmembran etablieren. In gegenwärtigen Arbeiten der Gruppen Mohrmann und Bruns werden entscheidende Komponenten des SNARE-Proteinkomplexes experimentell modifiziert, um im Zusammenspiel mit Computersimulation und theoretischer Modellierung (Gruppe R. Böckmann) ein genaueres Verständnis der molekularen Interaktionen bei der schnellen Membranfusion zu erreichen. Die Messung und Darstellung der Images von Gesundheits-Dienstleistern — Eine Untersuchung am Beispiel saarländischer Krankenhäuser Prof. Dr. Martin Dietrich Dipl.-Kffr. Nadine Molter Betriebswirtschaftslehre, insb. Management des Gesundheitswesens Die Bedeutung von Images für eine bedarfsgerechte Versorgungsentwicklung Eine bedarfsgerechte Weiterentwicklung der Versorgungsstrukturen unseres Gesundheitswesens hängt im Wesentlichen davon ab, ob neue Versorgungsformen von den Nutzern angenommen werden. Eine Möglichkeit zur Erhöhung der Akzeptanz stellt das Konzept des Image-Transfers etablierter Leistungserbringer auf neue Versorgungsformen dar. Um dieses Konzept anwenden zu können, muss getestet werden, ob messbare und darstellbare Images von Gesundheits-Dienstleistern überhaupt vorliegen. Dieser Beitrag stellt die Anwendung der Multidimensionalen Skalierung zur Messung und Darstellung von Krankenhaus-Images und die Ergebnisse einer Anwendung auf eine Auswahl von saarländischen Krankenhäusern vor. Die Notwendigkeit der Versorgungsentwicklung im Gesundheitswesen Die medizinische Versorgung in Deutschland ist auf einem sehr hohen Niveau: Wer in Deutschland krank wird, kann sich darauf verlassen, dass er medizinisch gut versorgt wird. Doch die hohe Versorgungsqualität hat seinen Preis. Im Jahr 2010 wurden in Deutschland 287 Mrd. Euro für Gesundheit ausgegeben, das sind pro Einwohner 3.510 Euro (OECD 2012a, b) oder 11,8 % der gesamten Wirtschaftsleistung Deutschlands (Bruttoinlandsprodukt). Im europäischen Vergleich belaufen sich Deutschlands Gesundheitsausgaben auf einem sehr hohen Niveau, nur Frankreich und die Niederlande geben einen höheren Anteil ihrer gesamten Wirtschaftsleistung für Gesundheit aus und die Ausgaben für pharmazeutische Produkte in Deutschland sind die zweithöchsten im europäischen Vergleich. Bei einigen Gesundheitsergebnis-Indikatoren weist Deutschland allerdings nur ein durchschnittliches Niveau auf (OECD 2012a). Deshalb wird die Wirtschaftlichkeit des deutschen Gesundheitswesens in der Öffentlichkeit vielfach unter dem Aspekt seiner hohen Kosten und der Finanzierungsproblematik diskutiert. Der europäische Vergleich gibt Anlass zur Sorge, dass die Ergebnisse der medizinischen Versorgung gemessen am Aufwand, der dafür betrieben wird, deutlich besser sein müssten. Dieses Problem wird sich durch die demografische Entwicklung weiter zu einer großen gesellschaftlichen Herausforderung entwickeln. Ein wesentliches Problem im Verhältnis der medizinischen Ergebnissen der Versorgung und den Kosten besteht darin, dass sich die Wirksamkeit der medizinischen Maßnahmen und des medizinischen Fortschritts in der gegenwärtigen Organisationsform der Versorgung nicht voll entfalten können. Die Organisation der medizinischen Versorgung ist hoch fragmentiert und sektoral untergliedert, das heißt, dass beispielsweise die ambulante medizinische Versorgung finanzierungstechnisch und organisatorisch grundsätzlich von anderen Versorgungsformen wie der stationären Krankenhausversorgung, der Rehabilitation oder der Pflege getrennt ist (Simon, 2010). Zudem bilden sich immer mehr hoch spezialisierte Berufsbilder im Gesundheitswesen heraus, was zwar einerseits zu den in den Wirtschaftswissenschaften bekannten nützlichen Spezialisierungsvorteilen führt, die aber andererseits durch die dadurch gleichzeitig entstehenden Koordinations- und Schnittstellenprobleme konterkariert und teilweise egalisiert werden. Krankheitsbilder, die sich Management des Gesundheitswesens 7 12 3 13 aufgrund der demografischen Entwicklung und des Lebenswandels in unserer industrialisierten Gesellschaft herausbilden, bedürfen aber immer mehr organisationsübergreifender Behandlungskonzepte (Dietrich & Molter, 2013). Somit öffnet sich immer mehr eine Schere zwischen den Angebotsstrukturen des Gesundheitswesens in Form einer hoch fragmentierten Versorgungsorganisation auf der einen Seite und dem Bedarf an einheitlichen und zusammenhängenden Behandlungskonzepten über viele einzelne Instanzen hinweg auf der anderen Seite. Die Grundstrukturen der medizinischen Versorgung, wie sie zu Zeiten der Entwicklung unseres modernen Gesundheitssystems gelegt wurden, waren und sind zwar geeignet und wirksam, um die damals häufigsten krankheitsbedingten Todesursachen wie akute Infektionskrankheiten zu bekämpfen. Die häufigsten krankheitsbedingten Todesursachen, die heute den dringendsten Handlungsbedarf im Gesundheitswesen bestimmen, haben sich seither aber gewandelt und sind inzwischen chronische Krankheitsbilder wie Neubildungen und Herz-Kreislauferkrankungen (Statistisches Bundesamt 2013). Die Anpassung der Organisation unseres Gesundheitssystems mit seinen sektoralen Versorgungsstrukturen an diese neuen Behandlungsbedingungen stellt eine große Herausforderung dar. Deshalb ist das Gesundheitswesen mit seinen Organisationen und Unternehmen seit geraumer Zeit einem hohen Veränderungsdruck ausgesetzt. Eine Weiterentwicklung der herkömmlichen Versorgungsstrukturen wird mit neuen Versorgungskonzepten versucht, mit denen die Kooperation der Leistungserbringer gefördert werden soll. Das gesetzliche Regelwerk (fünftes Sozialgesetzbuch, SGB V) sieht dazu Möglichkeiten vor, wie unterschiedliche Leistungserbringer wie Krankenhäuser und niedergelassene Ärzte besser zusammenarbeiten können. Diese neuen Versorgungsformen sind durch eine »dreiseitige Freiwilligkeit« gekennzeichnet (Dietrich & Molter, 2012). Erstens können sich Leistungsanbieter wie z. B. Krankenhäuser, niedergelassene Ärzte und/oder Rehabilitations- und Pflegeeinrichtungen freiwillig zu solchen Organisationsformen zusammenschließen; zweitens sind Krankenversicherungen nicht gezwungen (außer bei der hausarztzentrierten Versorgung), mit Leistungsanbietern entsprechende Verträge über neue Versorgungsorganisationen abzuschließen (sog. »selektives Kontrahieren«); und drittens können sich Versicherte freiwillig bei solchen medizinischen Versorgungskonzepten einschreiben. Diese sogenannten integrierten Versorgungskonzepte versprechen, wesentliche Organisationsprobleme unseres Gesundheitswesens lösen zu können. Nur bedarf es ihrer Umsetzung durch Leistungserbringer und Krankenkassen sowie ihrer Akzeptanz auf Seiten der Versicherten, damit sich diese neuen Organisationsformen durchsetzen und als reguläre Versorgungsform etablieren können. Die Realisierung alternativer Versorgungsorganisationen und - konzepte geschieht nicht von alleine. Akzeptanz neuer Versorgungsformen Besonders wichtig für eine erfolgreiche Umstellung der Organisationsstrukturen des Gesundheitswesens ist die Akzeptanz der neuen Versorgungsformen durch die Versicherten. Nur wenn hinreichend viele Versicherten sich dazu entschließen, an neuen Versorgungskonzepten teilzunehmen, lassen sich genügend Erfahrungswerte sammeln, mit denen sich die Wirksamkeit neuer Versorgungsformen bewerten und das Gesundheitssystem zielführend weiter entwickeln lässt. Neue Versorgungsformen und integrierte Versorgungskonzepte stellen für die Versicherten aber hoch komplexe und erläuterungsbedürftige Dienstleistungsinnovationen dar, deren individuelle Nützlichkeit sich oft nicht unmittelbar wahrnehmen und erschließen lassen. Für sie stellt sich die Frage, wie die Idee der Leistungsvernetzung von Anbietern überhaupt wahrnehmbar und vermittelbar ist. Dies trifft vor allem für sogenannte populationsorientierte integrierte Versorgungsformen zu, bei denen ein wesentlicher Aspekt der Gesundheitsversorgung die Prävention und Leistungskoordination der integrierten Anbieter und die daraus resultierenden langfristigen Gesundheitserfolge darstellen. Die Nützlichkeit präventiver und unter verschiedenen Leistungserbringern abgestimmten Versorgungsangeboten ist für die einzelnen Versicherten zunächst nicht unmittelbar wahrnehmbar, weil deren Effekte erst zu einem viel späteren Zeitpunkt wirksam werden. Aus der Innovationsforschung ist aber bekannt, dass eben diese Wahrnehmbarkeit von relativen Vorteilen Faktoren sind, die die Akzeptanz von Innovationen ganz wesentlich beeinflussen (Rogers 2003). Die geringe Akzeptanz der neuen Versorgungsformen durch die Versicherten ist ein gegenwärtig unterschätztes Phänomen des Patienten- und Versichertenverhaltens im Gesundheitswesen. Ohne hinreichende Akzeptanz neuer Versorgungsformen verbreiten sich neue Versorgungsformen nicht schnell genug und die notwendige Weiterentwicklung des Gesundheitswesens wird gehemmt. Wie dargestellt hilft nur mehr vom Gleichen in der Versorgungsorganisation nicht weiter sondern es braucht andere Versorgungsstrukturen. Weitere Kostensteigerungen und nicht entsprechende gesundheitliche Outcome-Entwicklungen sind die drohende Folge, die im europäischen Vergleich mittelmäßige Effizienz des deutschen Gesundheitswesens droht weiter zu erodieren. Akzeptanzförderung durch Image-Transfer Was hat damit die Wahrnehmung von Krankenhäusern in der Bevölkerung und die Messung und Darstellung von Krankenhaus-Images zu tun? Weil neue Versorgungsformen mit ihrem vor allem internen Vernetzungscharakter schwer wahrnehmbar und deren Ergebnisse nicht unmittelbar erlebbar sind, stellt sich die Frage, wie die Akzeptanz dieser Versorgungsformen unter den Versicherten gesteigert werden kann. In der betriebswirtschaftlichen Forschung wird das Phänomen des Übertragens von Marken-Images auf neue Produkte und Dienstleistungen sowie deren Einfluss auf den Erfolg von Produkt- und Dienstleistungsinnovationen schon seit geraumer Zeit behandelt (z. B. Völckner, Sattler, Hennig-Thurau & Ringle, 2010). Ausgangspunkt der Überlegungen ist dabei, dass die Akzeptanzbereitschaft von Neuem und Unbekanntem höher ist, wenn bereits Bekanntes damit verknüpft werden kann. Ein neues Produkt wird z. B. eher angenommen, wenn die Herstellermarke bekannt ist und ein gutes Image genießt. Wesentliches Ergebnis dieser Forschung ist, dass es unter bestimmten Voraussetzungen möglich ist, das positive Image einer Marke auf neue Produkte und Dienstleistungen zu übertragen und damit die Akzeptanz und den Erfolg von Innovationen zu stärken. Diese Idee bietet sich auch für die Förderung der Akzeptanz von Innovationen im Gesundheitswesen an. Wenn nachweisebar wäre, dass positive Images von bestimmten Leistungserbringern im Gesundheitswesen auf innovative Versorgungsformen übertragbar wären und dadurch ihre Akzeptanz und Verbreitung unterstützt werden könnte, wäre ein Beitrag zur Weiterentwicklung unseres Gesundheitswesens geleistet. Je nachdem, für welche Leistungsanbieter ein positiver Image-Transfer möglich wäre, könnte die Gesundheitspolitik die Beteiligung bestimmter Leistungserbringer an Versorgungsinnovationen fördern oder bisherige Leistungserbringer könnten sich gezielter und erfolgsorientierter in die Weiterentwicklung der Versorgungsstrukturen investieren und im Gesundheitswesen mit neuen Leistungsmodellen neue Versorgungsfelder erschließen und den langfristigen Erfolg sicherstellen. Operationalisierung von Images Bevor eine Übertragung von Images beispielsweise von Krankenhäusern auf neue Versorgungsformen erfolgen kann, stellt sich die Frage, ob ein Image von Krankenhäusern überhaupt existiert und ob eine entsprechende Wahrnehmung von Krankenhäusern darstellbar und kommunizierbar ist. Diesem Aspekt ist die im Folgenden darzustellende Studie gewidmet. In ihr geht es darum herauszufinden, wie Krankenhäuser wahrgenommen werden, was für ein Image unterschiedliche Krankenhäuser haben und wie man diese Images in subjektiven Wahrnehmungsräumen darstellen und interpretieren kann. Das dabei eingesetzte Verfahren »Multidimensionale Skalierung« (MDS) stammt aus der Psychometrie und wird in verschiedenen Gebieten der empirischen sozial- und verhaltenswissenschaftlichen Forschung eingesetzt, insbesondere auch in der Marktforschung. Mit diesem Verfahren ist es möglich, die Positionierung von Objekten (hier: Krankenhäuser) in subjektiven Wahrnehmungsräumen verlässlich zu bestimmen und zu interpretieren. Wenn Images von Krankenhäusern nachgewiesen und ihre Position in subjektiven Wahrnehmungsräumen dargestellt werden können, wäre eine notwendige Voraussetzung für weitere Forschungsbemühungen gegeben, die den Transfer des Images von Krankenhäusern oder anderen Gesundheitsorganisationen auf neue Versorgungsformen und deren Einfluss auf die Akzeptanz von Versicherten untersuchen könnten. Aus wissenschaftlicher Sicht ist diese Frage interessant, um grundlegende Auswirkungen der Markenbildung und der Reputation im Gesundheitswesen abschätzen und Besonderheiten eines für das Gesundheitswesen spezifizierten Markenmanagements identifizieren zu können. Nachfolgend wird die Durchführung einer MDS-Studie zur Identifikation von »corporate images« (etwa mit »Wahrnehmung von Unternehmen« zu übersetzen) von saarländi- VSE AG Heinrich-Böcking-Straße 10–14 66121 Saarbrücken Tel. 0681 6070, [email protected] schen Krankenhäusern vorgestellt. Dazu wird zunächst das Konzept von »corporate images« skizziert und auf subjektive Wahrnehmungsräume eingegangen, die MDS kurz vorgestellt und die forschungspraktische Anwendung anhand der Ergebnisse einer empirischen Vorstudie präsentiert. »Corporate Image«, Subjektive Wahrnehmungsräume und Multidimensionale Skalierung »Corporate Image« Ein »Image« bezeichnet den Gesamteindruck, den man von einer Sache, einer Person oder einem beliebigen anderen Wahrnehmungsobjekt hat. Diese Images bestimmen zu einem großen Teil, wie man sich gegenüber diesem Objekt verhält. Der Gesamteindruck, den Unternehmen vermitteln (»corporate image«), spielt zum Beispiel eine wichtige Rolle bei der Entscheidung, ob jemand Kunde eines Unternehmens wird oder bleibt. »Corporate images« entstehen einerseits durch die Aktivitäten eines Unternehmens, aber auch durch die Reputation des Unternehmens und durch die Erfahrungen, die verschiedene Anspruchsgruppen mit einem Unternehmen machen (Esch, 2012). Bei Unternehmen und Organisationen, die noch neu und unbekannt sind, gestaltet sich der Wahrnehmungsprozess, der zu einem »corporate image« führt, als sehr komplex. Übertragungseffekte von wahrnehmbaren Attributen (»halo-effect«) und das Schließen von einigen wenigen bewertbaren Merkmalen auf die Gesamtwahrnehmung des Unternehmens (»inference«) spielen hier eine wichtige Rolle (Kroeber-Riel, Weinberg & Gröppel-Klein, 2009). Wenn neue Organisationsformen geschaffen werden, liegen noch kaum Erfahrungswerte vor, die als Grundlage der Eindrucksbildung herangezogen werden können. Dennoch entsteht ein Gesamteindruck, der eher positiv oder eher negativ ausfallen kann. Die Übertragung von wenigen bekannten Merkmalen auf das »corporate image« neuer Organisationsformen ist ein wichtiger Ansatzpunkt um den Gesamteindruck unbekannte Versorgungsformen zu beeinflussen und höhere Akzeptanz zu erzeugen. Existiert beispielsweise ein relativ homogener und positiver Gesamteindruck von einem Krankenhaus und würde das Krankenhaus eine neue Versorgungsform anbieten bzw. sich daran beteiligen, kann man davon ausgehen, dass das »corporate image« des Krankenhauses auch für die Bildung des Gesamteindrucks der neuen Versorgungsform herangezogen wird. Das positive »corporate image« würde dann von einer Organisationsform auf die andere übertragen, es würde dann ein Image-Transfer stattfinden (Nieschlagl, Dichtl & Hörschgen, 2002). Dieser Image-Transfer zur Förderung der Akzeptanz neuer Versorgungsformen kann aber nur dann gezielt eingesetzt werden, wenn ein hinreichend konsistenter Gesamteindruck eines Unternehmens oder eines Krankenhauses existiert, der messbar und darstellbar ist. Für komplexe Wahrnehmungsobjekte wie Krankenhäuser ist das nicht ohne weiteres vorauszusetzen. Um solche Gesamteindrücke besser zu verstehen, geht man von der Annahme aus, dass sich die Wahrnehmung von Objekten in sogenannten subjektiven Wahrnehmungsräumen darstellen lässt. Dabei nimmt man an, dass Wahrnehmungsobjekte bestimmte Positionen in diesen Wahrnehmungsräumen haben, die sich messen und in »Wahrnehmungs-Landkarten« (»perceptual maps«) (Schmalensee & Thisse, 1988) übertragen lassen. Management des Gesundheitswesens Für Unternehmen spielt dieses Konzept der Subjektiven Wahrnehmungsräume beispielsweise im Rahmen ihrer Positionierung eine wichtige Rolle. Werden mehrere Unternehmen oder Produkt- bzw. Dienstleistungs-Marken in subjektiven Wahrnehmungsräumen dargestellt, können aufgrund der Nähe verschiedener Objekte in diesen Wahrnehmungsräumen zum Beispiel Wettbewerbsbeziehungen ermittelt werden. Subjektive Wahrnehmungsräume können mehrere Dimensionen haben, zu vereinfachten Darstellung geht man aber meistens von zweidimensionalen Wahrnehmungsräumen aus, die sich dann tatsächlich ähnlich wie Landkarten lesen lassen. Die Dimensionen sind dann aber nicht die Nord-Süd und Ost-West-Ausrichtung, sondern die Dimensionen entsprechen Eigenschaftswahrnehmungen, die zum Verständnis subjektiver Wahrnehmungsräume am besten unabhängig voneinander, im geometrischen Sinne also orthogonal zueinander sein sollten. Für Organisationen aus der medizinischen Versorgung lassen sich als unabhängige Dimensionen in subjektiven Wahrnehmungsräumen beispielsweise die wahrgenommene medizinisch-fachliche Qualität und die wahrgenommene Freundlichkeit des Personals verstehen. Beide können unabhängig voneinander variieren, das heißt, ein Krankenhaus kann zwar medizinischfachlich als hoch kompetent, aber unfreundlich wahrgenommen werden, während ein anderes Krankenhaus vielleicht als besonders patientenfreundlich, aber medizinisch-fachlich weniger kompetent angesehen werden kann. 7 14 3 15 Multidimensionale Skalierung Bei der Multidimensionalen Skalierung (MDS) handelt es sich um ein Verfahren, mit dem man unbekannte Positionen von Objekten im subjektiven Wahrnehmungsraum von Personen auffinden kann (Jaworska & ChupetlovskaAnastasova, 2009). Die MDS gehört unter den Verfahren zur Messung und Darstellung von »corporate images« zu den am besten geeigneten Verfahren (Dowling, 1988). Bei der MDS bewerten Personen zunächst nur die Ähnlichkeiten bzw. Unähnlichkeiten von Objekten wie beispielsweise Unternehmen oder Krankenhäuser. Aus diesen paarweisen Ähnlichkeits- bzw. Unähnlichkeitsurteilen werden Rangreihungen bzw. Matrizen von aggregierten Ähnlich- bzw. Unähnlichkeitsdaten der Objekte gebildet. Diese Informationen werden von dem Verfahren dann in Koordinaten-Punkte für die darzustellenden Objekte transformiert, mit denen die Positionen grafisch veranschaulicht werden können (Backhaus, Erichson, Plnke & Weiber, 2011). Es handelt sich damit um ein empirisches statistisches Verfahren, mit dem ordinal skalierte Ähnlichkeits-Daten auf das höhere metrische Skalen-Niveau gehoben werden (Kruskal, 1964 a, b). Als ähnlich wahrgenommene Objekte werden nahe beieinander liegend dargestellt, während unähnliche Objekte so dargestellt werden, dass sie räumlich weit auseinander liegen. Die Angabe von reinen Ähnlichkeits-Bewertungen ist für die MDS ausreichend und stellt ihre methodische Stärke dar, weil die Images indirekt, und damit verlässlicher gemessen und dargestellt werden können. Das hat aber den Nachteil, dass die Dimensionen des Wahrnehmungsraums zunächst nicht interpretiert werden können. Um die Dimensionalität einer Konfiguration (=ermittelte Positionen von Bewertungsobjekten im subjektiven Wahrnehmungsraum) interpretieren zu können, bedarf es zusätzlich der Angabe von Rangreihungen der zu bewerteten Objekte anhand vorgegebener Eigenschaften. Die Ergebnisse der eigenschaftsbezogenen Rangreihungen dienen dann der Ermittlung von DimensionsBezeichnungen des Wahrnehmungsraums. Diese Eigenschaften übernehmen die Funktion der Orientierungsrichtungen vergleichbar den Himmelsrichtungen bei Landkarten. Weiterhin ermöglicht es die MDS aus Sicht der Befragten, »ideale« Positionen zu identifizieren, die aus Sicht der Befragten die am meisten präferierten Positionen darstellen. Die Entfernung von den dargestellten Objekten von den jeweiligen Idealpositionen, die für jeden einzelnen Befragten bestimmt werden können, wird verwendet, um die Attraktivität von Positionen im Wahrnehmungsraum beispielsweise für Unternehmen oder Marken zu bestimmen. Es wird nämlich angenommen, dass die Distanz von Objekten zu der idealen Position umgekehrt proportional zur Wahlwahrscheinlichkeit ist. Liegt ein Produkt in der Wahrnehmung eines Befragten nahe an dessen idealer Position, ist die Wahrscheinlichkeit, dass dieses Produkt vom Befragten im Bedarfsfall gewählt wird höher als für ein weiter entfernter gelegenes Produkt. Die Positionen im Wahrnehmungsraum, die von vielen Idealpunkten der Befragten gekennzeichnet sind, stellen attraktive Positionen dar, wohin sich Unternehmen positionieren sollten. Bereiche im Wahrnehmungsraum, wo sich wenige Idealpunkte befinden, sollten gemieden werden, weil dort geringe oder keine Nachfrage zu erwarten ist. Die zuvor ermittelten Eigenschaftsdimensionen helfen, diese Positionen inhaltlich zu beschreiben. Wie gut sich die empirischen Daten in eine Konfiguration transformieren lassen, kann mit Hilfe von Kennzahlen der MDS beschrieben werden. Das gängigste Maß für die MDS ist das sogenannte »STRESS« -Maß, das zwischen 0 und 1 liegt und bei dem kleine Werte eine gute Anpassung und hohe Werte eine schlechte Anpassung der ermittelten räumlichen Distanzen an die Ähnlichkeitsurteile der Probanden anzeigen. Als weiteres Maß wird die quadrierte Korrelation (RSQ = r-squared correlation) herangezogen, das den Anteil der erklärten Varianz zwischen Ähnlichkeit und Distanzen angibt. Auch dieses Maß ist zwischen 0 und 1 skaliert, hohe Werte bedeuten hier aber eine bessere Anpassung. Die Aussage des RSQ ist vergleichbar mit R2 von Regressionsanalysen (Kruskal, 1964 a). »Corporate Images« von Krankenhäusern im Saarland Die forschungspraktische Umsetzung der vorangegangenen Überlegungen wird nachfolgend anhand einer Positionierungsanalyse saarländischer Krankenhäuser mit Hilfe der MDS dargestellt. Da es sich bei der MDS um ein vergleichsweise aufwändiges Verfahren handelt, würden der Befragungsaufwand und die kognitive Beanspruchung der Probanden bei einer großen Zahl von Vergleichsobjekten schnell sehr hoch. Denn jedes der in die Analyse einbezogenen Krankenhäuser muss mit jedem anderen Krankenhaus bezüglich ihrer Ähnlichkeiten beurteilt werden. Würden in einer solchen Analyse alle 25 im Krankenhausplan für das Saarland 2011–2015 aufgeführten Einrichtungen berücksichtigt werden, müsste jeder Proband je nach Methode entweder 300 oder 600 Paarvergleiche durchführen. Methodische Aspekte der MDS verlangen aber, dass die Daten eine gewisse Mindestqualität aufweisen und möglichst widerspruchsfrei sind, damit die Verlässlichkeit der Analyse gewährleistet ist. Diese Überlegungen haben dazu geführt, dass in die Studie nur eine reduzierte Auswahl von 10 saarländischen Krankenhäusern einbezogen wurde. Die Auswahl erfolgte unter regionalen Gesichtspunkten und unter Leistungsgesichtspunkten. Mit der gewählten Datenerhebungsmethode (Ankerpunktmethode) werden bei einem Vergleich von 10 Krankenhäusern pro Proband 90 Paarvergleiche notwendig, k x (k-1), mit k = Anzahl der Krankenhäuser. Für die Probanden ist auch diese Anzahl von Paarvergleichen mit der Ankerpunktmethode eine anspruchsvolle Aufgabe, die aber dadurch erleichtert werden kann, dass die Erhebung computergestützt erfolgt. Um eine inhaltliche Interpretation der Konfiguration zu ermöglichen, wurden vier Eigenschaften ausgewählt, die als relativ unabhängig voneinander angesehen werden können. Diese Eigenschaften waren: 1. 2. 3. 4. Fachliche Kompetenz, Medizinisch-Technische Ausstattung, Serviceangebote, Freundlichkeit des Personals. Die in die Studie einbezogenen Krankenhäuser waren: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Wenn tatsächlich konsistente Markenbilder existieren sollten, kann mit den Ergebnissen der Befragung die Wahrnehmung der in die Untersuchung einbezogenen Krankenhäuser in einem zweidimensionalen Raum grafisch veranschaulicht werden. Es kann somit eine Wahrnehmungs-Landkarte erzeugt werden, in der die relativen WahrnehmungsUnterschiede der Krankenhäuser in der Bevölkerung dargestellt sind. Dabei handelt es sich um relative und subjektive Wahrnehmungsunterschiede in Form einer Positionierung. Das bedeutet, dass die unterschiedlichen Positionen von Krankenhäusern nicht absolut, sondern nur im Bezug auf die verglichenen Krankenhäuser interpretierbar sind. Marienhausklinik St. Josef Losheim am See Marienhaus St. Elisabeth Klinikum Saarlouis Krankenhaus Saarlouis vom DRK Krankenhaus St. Josef Dudweiler Evang. Stadtkrankenhaus Saarbrücken Städtisches Klinikum Neunkirchen Klinikum Merzig gGmbh Marienkrankenhaus St. Wendel Klinikum Saarbrücken Winterberg Uniklinik Homburg Schlüsselung Alter Geschlecht Einkommen Anzahl Anteil 15–24 Jahre 29 29,6 % 25–44 Jahre 28 28,6 % 45–64 Jahre 24 24,5 % älter als 64 Jahre 17 17,4 % weiblich 46 47,0 % männlich 52 53,1 % weniger als 1300 € 21 21,4 % 1301–2600 € 12 12,2 % 2601–3200 € 7 7,1 % mehr als 3200 € 4 12,4 % 46 47,0 % 9 9,2 % keine Angaben Höchster Volks- / Hauptschulabschluss Bildungs- Realschul- / gleichwertiger Abschluss 12 12,2 % (Fach)- Hochschulreife 36 36,8 % (Fach)- Hochschulabschluss 33 33,7 % Sonstige 8 8,2 % Beruflicher Selbständige/r 4 4,1 % Status Beamte/r 8 8,2 % 21 21,4 % Arbeiter/in 3 3,1 % Student/in 46 47,0 % Sonstiges 16 16,3 % abschluss Angestellte/r Tabelle 1: Zusammensetzung der Stichprobe, n = 98 Datengrundlage Die Anwendung der MDS als quantitativ-empirische Methode macht eine Datenerhebung per Befragung notwendig. Bei dieser Befragung waren von den Probanden zunächst Ähnlichkeiten der oben genannten Krankenhäuser anzugeben. Danach hatten die Befragten die Krankenhäuser anhand der oben genannten Eigenschaften dadurch zu bewerten, dass sie die Krankenhäuser bezüglich dieser Eigenschaften in eine Rangreihenfolge zu bringen hatten. Das Krankenhaus, welches aus Sicht eines Befragten das patientenfreundlichste Personal hat, war in der Rangreihe an erster Stelle zu setzen, das Krankenhaus mit dem zweitfreundlichsten Personal an zweiter Stelle et cetera. Zuletzt mussten die Probanden angeben, welche Krankenhäuser einmal ohne Berücksichtigung des eigenen Wohnortes und einmal mit Berücksichtigung des eigenen Wohnortes der Reihe nach gewählt würden, wenn ein Bedarf an stationärer medizinischer Behandlung vorliegen würde. Die Befragungen fanden in fünf saarländischen Fußgängerzonen in den Städten Saarbrücken, Merzig, St. Wendel, Saarlouis und Homburg durch geschulte Interviewer und hauptsächlich softwaregestützt statt. Zum Teil wurden Daten aber auch ohne Computer-Unterstützung erhoben, um die Daten zu validieren. An der Befragung nahmen 98 Probanden teil. Die Zusammensetzung der Stichprobe ist Tabelle 1 zu entnehmen. Aus ihr wird deutlich, dass die Datengrundlage keinen Anspruch auf Repräsentativität erheben kann. Das ist bei der Interpretation der Ergebnisse zu berücksichtigen. Ergebnisse Die Durchführung der MDS führte zu den Gütemaßen STRESS 2 (Young) = 0,36 und RSQ = 0,43, was als hinreichend gute Anpassung der gefundenen Konfiguration an die Ähnlichkeitsdaten in einem auf zwei Dimensionen reduzierten Wahrnehmungsraum darstellt. Als Ergebnisse der MDS können die Positionen der Krankenhäuser im subjektiven Wahrnehmungsraum dargestellt werden, die aus den Ähnlichkeitsurteilen der Probanden gewonnen werden konnten (Abb. 1). Aus Abbildung 1 wird deutlich, dass die Krankenhäuser im Saarland von den Befragten sehr differenziert wahrgenommen werden. Das wird daraus ersichtlich, dass in jedem Quadranten des zweidimensionalen Wahrnehmungsraums Krankenhäuser positioniert sind. Auffallend ist, dass die beiden Krankenhäuser der Maximalversorgung im Saarland, das Universitätsklinikum Homburg und das Städtische Klinikum Winterberg, eine sehr geringe Distanz zueinander aufweisen und folglich als sehr ähnlich wahrgenommen werden. Hinsichtlich ihres Leistungsspektrums erscheint diese Lösung plausibel und spricht für die Validität des Positionierungsergebnisses. Um dieses Bild besser interpretieren zu können, werden die abgefragten Eigenschafts-Reihenfolgen, in denen die Krankenhäuser von den Befragten gebracht wurden, darge- Abb 1: Konfiguration saarländischer Krankenhäuser, Eigenschaftsausprägungen und Idealvektoren im subjektiven Wahrnehmungsraum, ohne Berücksichtigung des Wohnortes stellt. Wie in Abbildung 1 an den roten Quadraten zu sehen ist, weist die Eigenschaft »Freundlichkeit des Personals« in der Wahrnehmung der Befragten in Nord-Nordöstliche Richtung. Bei Krankenhäusern, die in dieser Richtung positioniert sind, wird das Personal freundlicher angesehen als Kranken- www.medserv-ce.de Full Service Management des Gesundheitswesens Fokussiert und flexibel 7 16 3 17 INNOVATIV UND UNABHÄNGIG Als herstellerunabhängiges Dienstleistungsunternehmen können wir unseren Kunden schnelle, effiziente und wirtschaftliche Lösungen sowie den bestmöglichen Service bieten. Unser Angebotsportfolio umfasst die Bereiche Medizintechnik sowie Haus- und Betriebstechnik. Dabei stehen das Gerätemanagement, Reparaturen und Prüfungen, Beratungsleistungen sowie der Vertrieb von Geräten und Ersatzteilen im Vordergrund. Unsere Leistungen garantieren eine Optimierung Ihrer Prozesse und Kosten. MEDSERV-CE KONTAKT KONTAKTSTARK UND VERNETZT Tel 06897 / 924978-0 Fax 06897 / 924978-99 E-Mail [email protected] Im Rahmen unserer langjährigen Erfahrungen und Kontakte am Markt haben wir uns ein großes Netzwerk zu Herstellern, Lieferanten und Partnerunternehmen aufgebaut. Abb 2: Konfiguration saarländischer Krankenhäuser, Eigenschaftsausprägungen und Idealvektoren im subjektiven Wahrnehmungsraum, ohne Berücksichtigung des Wohnortes häuser, die in entgegengesetzter Richtung positioniert sind. In der vorliegenden Konfiguration wird deutlich, dass das Personal im Klinikum in Merzig in Relation zu den anderen Krankenhäusern als patientenfreundlicher angesehen wird. Als weitere Eigenschaften wurden die mit den Krankenhäusern in Verbindung gebrachte fachliche Kompetenz sowie die medizinisch-technische Ausstattung abgefragt und dargestellt. In Abbildung 1 zeigen die entsprechenden roten Quadrate in Richtung West-Südwest. Krankenhäuser, deren Position in dieser Richtung liegen, werden als fachlich kompetenter und besser medizinisch-technisch ausgestattet wahrgenommen. Wie sich aus Abbildung 1 ersehen lässt, trifft dies auf die beiden Krankenhäuser der Maximalversorgung zu und erscheint augenscheinlich als plausibel. Dass diese Eigenschaften und ihre Darstellungen in Form von Eigenschaftsvektoren vom 0-Punkt der Darstellung aus gesehen praktisch senkrecht zueinander stehen zeigt, dass sie – wie oben angenommen – voneinander unabhängig sind. Die Serviceorientierung wurde ebenfalls abgebildet, stellt aber keine von den anderen Eigenschaften unabhängige Eigenschaft dar, was sich an dem Winkel des gedachten Vektors zu der entsprechenden Markierung erkennen lässt. Als letzte Information können die Positionen ermittelt werden, in denen die Probanden idealerweise Krankenhäuser sehen. Jeder Proband ist in Abbildung 1 als grünes Kreuz dargestellt. Die Kreuze sind als Pfeilspitzen von Einheitsvektoren zu verstehen, die in die Richtung weisen, in denen der einzelne Proband sein ideales Krankenhaus sieht. Je weiter Krankenhäuser vom Nullpunkt aus gesehen in Richtung dieser durch Probanden-Kreuze repräsentierten Einheitsvektoren wahrgenommen werden, desto mehr entsprechen sie den idealen Vorstellungen des jeweils Befragten. Das bedeutet, dass in der Richtung, auf die viele der Einheitsvektoren hinweisen bzw. wo die Kreuze besonders gehäuft auftreten, sind die von den Befragten am meisten präferierten Krankenhaus-Positionen. Wie in Abbildung 1 zu sehen ist, präferieren die Befragten ein hohes Maß an fachlicher Kompetenz und eine hohe medizinisch-technische Ausstattung. Beachtet werden muss, dass die idealen Positionen der Befragten in Abbildung 1 (grüne Kreuze) ohne Berücksichtigung des Wohnortes in eine Rangreihe gebracht werden sollten. Im Unterschied dazu wurden die gleichen Probanden in einer weiteren Frage darum gebeten, eine entsprechende Rangreihung unter Berücksichtigung des eigenen Wohnortes vorzunehmen. Die entsprechenden idealen Richtungen sind in Abbildung 2 für jeden Befragten als grüne Quadrate dargestellt. Abbildung 2 unterscheidet sich von Abbildung 1 nur durch die Wiedergabe der idealen Richtungen der Befragten (vgl. grüne Kreuze vs. grüne Quadrate in Abb. 1 u. 2). Wird der eigene Wohnort berücksichtigt, verschieben sich offensichtlich die idealen Richtungen bevorzugter Krankenauspositionen etwas, so dass deutlich wird, dass bei der Wahl eines Krankenhauses die regionale Nähe zum Wohnort ein wesentlicher Einflussfaktor der Krankenhauswahl ist. Bei der Interpretation dieser Konfigurationen ist nochmals darauf hinzuweisen, dass es sich um Darstellungen relativer Positionen handelt und keine Aussagen darüber getroffen werden können, welchen absoluten Beurteilungen die in die Analyse einbezogenen Krankenhäusern unterliegen. Zugleich stellt sich die Frage, wie ideale Richtungen zu interpretieren sind, die gleichzeitig entgegengesetzt zur Richtung des patientenfreundlichen Personals und der medizinisch-technischen Ausstattung und der fachlichen Kompetenz gelegen sind. Da eine zweidimensionale Darstellung gewählt wurde, kann man davon ausgehen, dass es sich um eine hoch aggregierte und stark vereinfachte Darstellung handelt, bei der gemessen an der Komplexität der Wahrnehmung von Krankenhäusern einige Information unberücksichtigt bleibt. Zudem wurden aus Einfachheitsgründen nur vier Eigenschaften abgefragt, was wiederum eine Vereinfachung des Bewertungsproblems »Krankenhaus-Wahrnehmung« darstellt. Um diese in der vorliegenden Darstellung eher kontraintuitiven Richtung einiger individueller Idealvektoren interpretieren zu können, wäre eine höher dimensionierte Konfiguration zu Grunde zu legen und weitere Eigenschaften in die Analyse einzubeziehen. Zudem weisen die Anpassungsmaße (STRESS 2 (Young) und RSQ, s. o.) darauf hin, dass die zweidimensionale Lösung zwar akzeptabel ist, aber dadurch verbessert werden könnte, dass mehr Eigenschaften berücksichtigt werden und ein höher dimensionierter Wahrnehmungsraum verwendet wird. Zusammenfassung und Diskussion Die Ergebnisse zeigen zunächst, dass die Methode der MDS plausible Ergebnisse hinsichtlich der Darstellung der Krankenhäuser im subjektiven Wahrnehmungsraum ermöglicht und bestätigen, dass Krankenhaus-Images mess-, darstellbar und plausibel interpretierbar sind. Die Ergebnisse zeigen weiterhin, dass Krankenhaus-Images anhand von zwei unabhängigen Eigenschaften interpretiert werden können, und zwar hinsichtlich medizinischer Aspekte (fachliche Kompetenz und medizinisch-technische Ausstattung) und hinsichtlich der Freundlichkeit des Personals. Diese Wahrnehmung von Krankenhäusern als Organisationen und damit als aggregierte Pools von Ressourcen und Kompetenzen entspricht den Wahrnehmungsmustern, die bereits aus der Erforschung des Arzt-Patienten-Verhältnisses bekannt ist. Dieses Wahrnehmungsmuster unterscheidet einen medizinisch-technischen (»task-oriented«) und einen zwischenmenschlichen Aspekt (»socio-emotional«) (Hall, Roter & Katz, 1987; Roberts & Aruguete, 2000). Die vorliegenden Ergebnisse legen nahe, dass solche Wahrnehmungsmuster auch gegenüber Krankenhäusern als Organisationen vorliegen. Die hohen Werte der Maximalversorger im Saarland hinsichtlich der Dimension »fachliche Kompetenz« und »medizinisch-technische Ausstattung« deuten auf die Validität der Ergebnisse hin. Bezogen auf die Frage, was diese Wahrnehmungen als Images von Krankenhäusern mit der Versorgungsentwicklung zu tun haben, muss nochmals Bezug auf die Übertragung von Images auf neue, den Versicherten noch unbekannte Versorgungsformen genommen werden. Da die Daten Hinweise darauf geben, dass Krankenhaus-Images bestehen und diese auf plausible und verlässliche Weise gemessen und dargestellt werden können, ist die Grundlage dafür gegeben, die Übertragbarkeit von Images auf neue Versorgungsformen zu prüfen. Eine naheliegende, aber zu testende Vermutung wäre, dass Krankenhäuser, die das Image hoher fachlicher Kompetenz und guter medizinisch-technischer Ausstattung genießen, ihr Image auf neue Versorgungsformen übertragen und deren Akzeptanz damit erhöhen können. Diese Annahmen sind allerdings in weiteren Studien zu prüfen wie auch den Möglichkeiten nachzugehen wäre, welche anderen Image-Dimensionen von Krankenhäuser oder anderen Einrichtungen des Gesundheitswesens besser geeignet wären, um sie auf neue Versorgungsformen für eine höhere Akzeptanz zu übertragen. Literatur — Backhaus, K., Erichson, B., Plinke, W. & Weiber, R. (2011): Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, 13. Aufl., Heidelberg: Springer. — Dietrich, M., & Molter, N. (2013). Kundenmanagement in der Integrierten Versorgung. In R. Busse, J. Schreyögg & T. Stargardt (Eds.), Kundenmanagement im Gesundheitswesen – Einführung und methodische Grundlagen (210). Berlin-Heidelberg: Springer. — Dowling, G. R. (1988). Measuring corporate images: A review of alternative approaches. — Esch, F.-R. (2012). Strategie und Technik der Markenführung, 7. Aufl., München: Vahlen. Journal of Business Research, 17(1), 27–34. doi: http://dx.doi.org/10.1016/0148-2963(88)90019-7 — D Univ.-Prof. Martin ietrich ist seit 2011 Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insb. Management des Gesundheitswesens, an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität des Saarlandes. Zuvor promovierte er im Bereich marktorientiertes Krankenhausmanagement und habilitierte zur Bedeutung, Relevanz und Umsetzung marktorientierter Strategieansätze im Gesundheits-, Public-/Nonprofit- und Dienstleistungsmanagement an der Albert-Ludwigs-Universität Freiburg im Breisgau. Zurzeit ist Prof. Dietrich Studienbeauftragter der wirtschaftswissenschaftlichen Abteilung und Vorsitzender des Prüfungsamtes an der Rechts- und Wirtschaftswissenschaftlichen Fakultät. Seine Forschungsschwerpunkte liegen im Bereich der Erforschung neuer Versorgungsformen und Innovationen im Sinne system- und marktfähiger, gesellschaftlich akzeptierter und wirtschaftlich tragfähiger Lösungen, was mit der Erforschung von Organisationsverhalten, Regulierung und Innovation, Geschäftsmodellentwicklung im Gesundheitswesen und der Akzeptanz und Umsetzung betriebswirtschaftlicher Ansätze in Organisationen und Unternehmen des Gesundheitswesens einhergeht. Hall, J. A., Roter, D. L. & Katz, N. R. (1987). Task Versus Socioemotional Behaviors in Physicians. Medical Care, 25(5), 399 –412. — Jaworska, N. & Chupetlovska-Anastasova, A. (2009). A review of multidimensional scaling (MDS) and its utility in various psychological domains. Tutorials in Quantitative Methods for Psychology, 5(1), 1–10. — Kroeber-Riel, W., Weinberg, P. , Gröppel-Klein, A. (2009). Konsumentenverhalten, 9. Aufl.), München: Vahlen. — Kruskal, J. B. (1964 a). Multidimensional scaling by optimizing goodness of fit to a nonmetric hypothesis. Psychometrika, 29(1), 1–27. doi: 10.1007/bf02289565 — Kruskal, J. B. (1964 b). Nonmetric multidimensional scaling: A numerical method. Psychometrika, 29(2), 115–129. doi: 10.1007/bf02289694 — Nieschlagl, R., Dichtl, E. & Hörschgen, H. (2002). Marketing , 13. Aufl., Berlin: Duncker & Humblot. Management des Gesundheitswesens — Roberts, C. A. & Aruguete, M. S. (2000). Task and socioemotional behaviors of physicians: a test of reciprocity and social interaction theories in analogue physician-patient encounters. Social Science & Medicine, 50(3), 309–315. doi: 10.1016/s0277– 9536(99)00245-2 — Schmalensee, R. & Thisse, J.-F. (1988). Perceptual maps and the optimal location of new products: An integrative essay. International Journal of Research in Marketing, 5(4), 225–249. doi: http://dx.doi.org/10.1016/0167– 8116(88)90003-1 — Simon, M. (2010). Das Gesundheitssystem in Deutschland : eine Einführung in Struktur und Funktionsweise, 3. Aufl., Bern: Huber. — Statistisches Bundesamt (2013): Todesursachen, https://www.destatis.de/DE/ZahlenFakten/ GesellschaftStaat/Gesundheit/Todesursachen/Tabellen/GestorbeneSterbeziffer.html — Völckner, F., Sattler, H., Hennig-Thurau, T. & Ringle, C. M. (2010). The Role of Parent Brand Quality for Service Brand Extension Success. Journal of Service Research, 13(4), 379 –396. 7 18 3 19 doi: 10.1177/1094670510370054 M Dipl.-Kffr. Nadine olter arbeitet seit 2011 als Wissenschaftliche Mitarbeiterin und Doktorandin am Lehrstuhl für Betriebswirtschaftslehre, insb. Management des Gesundheitswesens, der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität des Saarlandes. Zuvor studierte sie Betriebswirtschaftslehre mit Schwerpunkt Marketing an der Universität des Saarlandes. Zu ihren Forschungsinteressen gehören die verhaltenswissenschaftliche Marketingforschung im Gesundheitswesen und die Gesundheitsverhaltensforschung. Zukunftswerkstatt Mobilität – Plattform zur Mobilitätsforschung an der UdS Prof. Dr. Michael Vielhaber Konstruktionstechnik Dr. Christian Müller Intelligente Benutzerschnittstellen Wir schreiben das Jahr 2013. Mobilität wird als ein wesentliches menschliches Grundbedürfnis gesehen. Mobilität macht unabhängig und befreit von örtlichen Beschränkungen. In unserem heutigen Wirtschaftssystem ist Mobilität notwendig, gewollt und ein Schlüssel für die Zukunftssicherung. Oft wird dabei auf das Automobil gesetzt – so bezeichnet sich das Saarland gerne als Autoland. Unsere Abhängigkeit von Mobilität erkennt man besonders dann, wenn diese unerwartet eingeschränkt wird – etwa durch Streiks, Witterung oder Staus. Mobilität ist ein Element von und ein Symbol für Freiheit. Heute erwarten wir für den Erhalt bzw. die Steigerung unserer Lebensqualität aber noch viel mehr: Produktion zu minimalen Kosten rund um die Welt, Transporte kostengünstig und just-in-time, Reisen ans andere Ende der Welt und Erdbeeren aus Übersee zum Weihnachtsfest. Immer größere Entfernungen sollen immer komfortabler und kräfteschonender zurückgelegt werden. Mobilität bezeichnet die Ortsveränderungen von Lebewesen oder Gegenständen im physischen, baulichen oder geografischen Raum. [1] Nachhaltigkeit beschreibt die Nutzung eines regenerierbaren Systems in einer Weise, dass dieses System in seinen wesentlichen Eigenschaften erhalten bleibt und sein Bestand auf natürliche Weise regeneriert werden kann. [3] Und 2050? »Wer mit dem Auto zur Arbeit fährt, kann unterwegs eine Decke häkeln, weil er stundenlang im Stau steht. Bei der Suche nach einem Parkplatz geht anschließend eine ganze Tankfüllung drauf. Blechlawinen überall, vorwärtskommen kaum möglich. Was wie ein überdrehtes Schreckensszenario wirkt, könnte schnell zur Wirklichkeit werden – wenn die Zahl der Autos weltweit wächst wie vorhergesagt« [2]. Heutige Mobilitätslösungen versagen immer öfter, wenn es darum geht, das Grundbedürfnis Mobilität zu befriedigen. Heutige Lösungen führen zu vielfältigen Umweltwirkungen, die langfristig nicht tragbar sein werden. Heutige Mobilität ist nicht nachhaltig. IT-Lösungen für Rechenzentren Me erz rzig ig ger er S Str tra aß 80 aße 6676 66 7 3 Di Dill llin ll in nge gen n 06 683 31 - 96 669 6990 9 www.ha ww art rte ech de ec ech. e Mobilität ist daher umso mehr ein Zukunftsthema, ein Thema auch für universitäre Forschung. Dabei verharren viele – insbesondere industrielle – Forschungsarbeiten im bestehenden System. Verbrauchsoptimierungen, Leichtbau und auch Car-Sharing-Modelle können zwar wichtige Beiträge leisten, gesetzte Umweltziele aber langfristig alleine nicht erfüllen. Auch Förderprojekte in Bund und Land greifen oft zu kurz, indem sie weiter etablierte Pfade verfolgen und beispielsweise den Aufbau von Flotten elektrifizierter, jedoch ansonsten konventioneller Fahrzeuge fördern. Zielsetzungen der EU mit CO2-Reduktionen auf ein Fünftel bis zum Jahre 2050 [4] werden dagegen nur mit einem umfassenden Mobilitätswandel erreichbar sein: 1. Vermeidung von Verkehr durch städtebauliche Maßnahmen. 2. Verlagerung von Individualverkehr auf öffentliche Verkehrsmittel. 3. Verbesserung von Fahrzeugen und Infrastruktur. Virtuelle Techniken müssen die Entwicklung von Mobilitätssystemen von der einzelnen Komponente bis zum intermodalen Verkehrssystem vorantreiben. Nachhaltige Entwicklungen zur Mobilität erfordern einen »Wandlungsprozess, in dem die Nutzung von Ressourcen, das Ziel von Investitionen, die Richtung technologischer Entwicklung und institutioneller Wandel miteinander harmonieren und das derzeitige und künftige Potential vergrößern, menschliche Bedürfnisse und Wünsche zu erfüllen« [5]. Auch an der Universität des Saarlandes wird Mobilität in vielfältiger Weise erforscht. Zum letztjährigen Tag der offenen Tür der Universität des Saarlandes eröffneten Prof. Michael Vielhaber vom Lehrstuhl für Konstruktionstechnik und Dr. Christian Müller von der Automotive Group des DFKI ihre »Zukunftswerkstatt Mobilität«, um einige dieser Aktivitäten zu bündeln und eine Plattform zur Mobilitätsforschung an der Universität des Saarlandes zu schaffen. Der Name Zukunftswerkstatt verbindet dabei den traditionellen (Auto-) Werkstatt-Begriff mit den gleichnamigen Methoden der Zukunftsforschung, die darauf zielen, mit neuen Ideen Lösungen für gesellschaftliche Probleme zu entwickeln. Konstruktionstechnik / Intelligente Benutzerschnittstellen Einige Aktivitäten im Umfeld der Mobilitätswerkstatt möchten wir im Folgenden kurz vorstellen. 7 20 3 21 Lehrstuhl für Konstruktionstechnik Automotive-Gruppe des DFKI white_c Seit 2010 vertritt Prof. Michael Vielhaber die Themen Produktentwicklung und Konstruktion in den Studiengängen Mechatronik und Maschinenbau. Nach dem Motto »Effizientes Engineering für innovative Produkte« verfolgt sein Team sowohl methodische als auch produkttechnische Schwerpunkte. Zu ersteren zählen Arbeiten zur simulationsbasierten und zur gewichtsorientierten Entwicklung ebenso wie Arbeiten zur nachhaltigen Produktentstehung und zur virtuellen Entwicklung von Produkten und Produktionsanlagen. Produktseitig dient das Thema Mobilität in erster Linie als Transferthema für Arbeiten zur Ressourcen- und Energieeffizienz Das Startup-Unternehmen white_c ist eine Ausgründung aus dem DFKI und betreibt in der Zukunftswerkstatt Mobilität einen Fahrsimulator. Daneben leistet white_c einen Beitrag zur Mobilitätsforschung durch ein Verfahren zur Aufnahme von Straßenzügen und Stadtgebieten mithilfe von 3D-Laserscannern, die dann digital für die Simulation von Verkehrsszenarien nutzbar gemacht werden: www.white-c.com Die Automotive-Gruppe des DFKI unter Leitung von Dr. Christian Müller gehört zum Fachbereich »Intelligente Benutzerschnittstellen«. Hier werden Bedienkonzepte für Fahrzeuge erforscht wie beispielsweise neuartige Assistenzsysteme sowie mobile Anwendungen, die den Benutzern helfen verkehrsmittelübergreifend zu reisen. Das Team besteht aus Experten aus den Bereichen Informatik und Psychologie, da bei der Entwicklung von benutzerorientierten Anwenungen der »Faktor Mensch«eine wesentliche Rolle spielt. Das gilt vor allen Dingen in beanspruchenden Situationen wie »fahren« oder allgemeiner »unterwegs sein«. Lean Mobility Elektromobilität wird eine erhebliche Bedeutung bei der Lösung zukünftiger Umweltherausforderungen zugeschrieben. Heutige Elektromobilitätsprodukte können dieser Bedeutung – zumindest angesichts der mittelfristigen Nichtverfügbarkeit ausreichender regenerativer Energien – jedoch noch nicht gerecht werden, da sie im Wesentlichen Elektrifizierungen konventioneller Fahrzeugkonzepte darstellen, die bestenfalls in innovative Mobilitätskonzepte eingebunden werden. Innovative Leichtfahrzeugkonzepte konnten dagegen bisher keine Marktakzeptanz erzielen. Ziel dieses Projektes des Lehrstuhls für Konstruktionstechnik ist daher eine effizienz- und anwendungsorientierte Produktoptimierung im Bereich elektrischer Leichtfahrzeuge. Im Mittelpunkt des Forschungsvorhabens steht dabei die Ableitung von Fahrzeugkonzepten, die für definierte Anwendungsprofile hinsichtlich Effizienzkriterien optimiert sind. Welche maximalen Effizienzwerte sind also erreichbar, um definierte Nutzer- und Anwendungsanforderungen noch er- füllen zu können? Insbesondere im Anwendungsbereich des erweiterten Stadt- und Pendelverkehrs werden hierdurch erhebliche Effizienzvorteile erwartet, durch deren Umsetzung bei einer Lebenszyklusbetrachtung die entsprechenden Verbrauchswerte heute marktgängiger Elektrofahrzeuge zumindest halbiert werden können. Hierzu sind Nutzer- und Anwendungsanforderungen entsprechenden Produktlösungen und -eigenschaften gegenüberzustellen und aus Effizienzsicht zu bewerten, um in der Folge schlanke Produkte im anwendungsspezifischen Effizienzoptimum zu ermöglichen – Produkte, die »LEAN«, also sowohl Leicht und Effizient als auch Anwendungs- und Nutzergerecht sind. Aus Sicht der Konstruktionstechnik verfolgt dieses Projekt einen der wichtigsten Aspekte der Produktentwicklung: Wie wird die »Stimme des Kunden« in ein passgenaues Produkt überführt, und wie wird diese Stimme für die Zukunft antizipiert? Effizienzsimulation und -messung Ressourcen- und Energieeffizienz nehmen eine immer weiter wachsende Rolle in der Produktentwicklung ein. Die gesteckten Ziele dabei sind hoch – so fordert eine Studie von McKinsey bis 2050 Steigerungen in der energetischen Produktivität um den Faktor 10, um den Herausforderungen des Klimawandels effektiv begegnen zu können [6]. Offensichtlich wird dies insbesondere im Bereich der Automobilindustrie. Neben den traditionell evolutionären Entwicklungsprozessen von Baureihe zu Baureihe gewinnen daher Neuentwicklungen auf Konzeptebene stark an Bedeutung. Gerade bei Neuentwicklungen sind die frühen Entwicklungsphasen von herausragender Bedeutung für den Entwicklungserfolg hinsichtlich Kosten, Qualitäts- und insbesondere auch Umweltgesichtspunkten. Modellierungs- und Simulationstechniken zielen daher gerade auf diese frühen Phasen ab, um Optimierungen auf mechatronischer Systemebene zu erreichen, lange bevor erste Konkretisierungen auf physikalischer Ebene erfolgen. Effizienzsimulationen stellen daher einen wesentlichen Baustein im Rahmen eines Gesamtansatzes zur frühzeitigen Berücksichtigung von Umweltaspekten im Produktentwicklungsprozess (EcoDesign) dar. Es werden damit Möglichkeiten aufgezeigt, bereits in frühen Konzeptphasen Bewertungen und Vergleiche bezüglich der zu erwartenden Energieeffizienz und Ökobilanzierung von Produkten durchzuführen. Die bisherigen Simulationsergebnisse konnten sehr gut anhand von unterschiedlichen Herstellerdaten verifiziert werden; die Abweichungen von unter 5 % stellen angesichts der in der frühen Phase erforderlichen Vereinfachungen einen sehr guten Wert dar. Zusätzlich wird in der Mobilitätswerkstatt eine mobile und fahrzeuguniverselle Effizienzmesstechnik entwickelt, um die Simulationsergebnisse weiter abzusichern. Die Anwendung des beschriebenen Simulationsansatzes im Entwicklungsprozess ist vielfältig. So kann er Produktentwickler bei der Suche nach (energetisch) bestmöglichen Kombinationen für Hybridantriebe unterstützen, also beispiels- weise das optimale Verhältnis zwischen Muskelkraft und Batterieleistung bei Pedelecs in Abhängigkeit unterschiedlicher Nutzungsprofile und Fahrzyklen ermitteln. Ebenso können Analysen zur Rekuperation bei Elektrofahrzeugen oder zu Fahrstrategien bei Automatikgetrieben durchgeführt werden. Unter Einbeziehung weiterer Umweltaspekte können auf Basis von Lebenszyklusanalysen auch werkstofforientierte Leichtbaukonzepte bewertet werden, beispielsweise die gesamtheitlichen Energie- und Ökobilanzauswirkungen von Aluminium- und Karbonkarosserien. Das Bild links verdeutlicht die Breite des Anwendungsspektrums mit beispielhaften Simulationsergebnissen. Aus Sicht der Konstruktionstechnik verbindet dieses Projekt wesentliche Stoßrichtungen moderner Produktentwicklung: Wie können Simulationstechniken zur Optimierung des Entwicklungsprozesses genutzt werden, und wie kann dies in einen Gesamtansatz zur nachhaltigen Produktentstehung eingebunden werden? Komponenten und Systeme für muskelkraftgetriebene Fahrzeuge Die Zukunftswerkstatt Mobilität bietet zudem die Möglichkeit, studentische Arbeiten unterschiedlicher konstruktionstechnischer Teilbereiche auf konkrete Produkte zu transferieren. Mobilitätsprodukte bieten dabei ein ideales Transferfeld, da sie wesentliche Gestaltungsthemen unserer Zukunft adressieren. Am Lehrstuhl für Konstruktionstechnik fokussieren sich die Arbeiten auf muskelkraftbetriebene Fahrzeuge (Human Powered Vehicles – HPV) als Komponenten einer zukünftigen »LEAN Mobility«. Das Spektrum reicht dabei über humanelektrische Hybridkonzepte (Human Power Hybrids – HPH) von Pedelecs bis weit in den Bereich visionärer Leichtfahrzeuge hinein. So wurden in studentischen Arbeiten bisher vollelektrische Antriebs- und Schaltungskonzepte entwickelt, und eine aktive Fahrradfederung ist in Arbeit als Ergebnis einer simulationsbasierten mechatronischen Systementwicklung. Fahrsimulation Das DFKI betreibt gemeinsam mit white_c in der Zukunftswerkstatt Mobilität einen Fahrsimulator unter Verwendung der selbst entwickelten Open-Source Software OpenDS (www.opends.eu). Dabei handelt es sich um eine modulare Software für Fahrsimulationsstudien, die speziell für industrielle Forschung und Entwicklung sowie Universitäten und wissenschaftliche Institute entwickelt wurde. Sie besteht hauptsächlich aus den Komponenten Physik (Schwerkraft, Konstruktionstechnik / Intelligente Benutzerschnittstellen Fliehkräfte, Kollision mit Gegenständen, Eigenschaften des Fahrzeuges, Reibung, Energieverbrauch, etc.), Infrastruktur (Straßen, Schilder, Lichtsignalanlagen, etc.), Visualisierung (Aussehen und Eigenschaften der Umgebung), Fahraufgaben (Design der eigentlichen Studien) und Analyse (Auswertung der Studien). Wir führen mit systematisch ausgewählten Probanden Versuche unter streng kontrollierten Bedingungen durch. Die Versuche werden in einem realen Fahrzeug durchgeführt, das an den Simulator angeschlossen ist. Über eine zylindrische Projektion, die das periphere Sichtfeld mit einschließt, stellen wir eine valide visuelle Reproduktion der gewünschten Verkehrssituation sicher. 7 22 3 23 Unfalldokumentation und Unfallvermeidungsforschung Bei der Dokumentation von Verkehrsunfällen kommt es auf Schnelligkeit an bei gleichzeitiger hoher Genauigkeit sowie einer umfassenden Aufnahme der Szene. white_c setzt dazu Laserscanner der neuesten Generation ein. Laserscanner erfassen die gesamte Umgebung und bilden sie im digitalen Modell dreidimensional ab. Einzelscans verschiedener Standorte verbinden sich zu einem räumlichen Gesamtmodell, so dass selbst komplexe Objekte und Szenen umfassend und präzise dokumentiert werden. Das Alleinstellungsmerkmal des 3D-Laserscanning im Vergleich zu anderen Messmethoden besteht in der ganzheitlichen Aufnahme des Szene und der Multifunktionalität der Datenauswertung. Durch Übernahme aller relevanten Daten in unsere Fahrsimulation, die über eine integrierte Physik-Komponente verfügt, können wir eine vollständige Bewegungsanalyse durchführen. Neben der statischen Dokumentation des Ist-Zustandes am Unfallort erhalten wir dadurch eine objektive Grundlage zur Durchführung einer Vermeidbarkeitsanalyse. Die PhysikKomponente bildet alle Kräfte auf Fahrzeuge und andere betroffene Objekte realitätsgetreu nach. Mithilfe der Visualisierungskomponente können diese direkt in die zuvor erfasste Szene gesetzt werden. In einer Animation aus unterschiedlichen Blickwinkeln kann so der tatsächliche Unfallverlauf rekonstruiert werden. Unterschiedliche Geschwindigkeiten, Reibungswerte (Bereifung), Verzögerungskräfte (Bremsen) und andere technische Rahmenbedingungen können anwendet werden, um Unfallfaktoren zu analysieren und eine (technische) Vermeidbarkeitsanalyse durchzuführen. Zur vergleichenden Analyse menschlicher Faktoren bei der Ursachenermittlung von Unfällen wird die Szene vollständig in den Fahrsimulator überführt. Anschließend werden mit Probanden Versuche unter kontrollierten Bedingungen durchgeführt. Technische Faktoren, die zuvor in der Unfallrekonstruktion ermittelt wurden, können im Fahrsimulator nachgestellt werden. Dadurch wird eine gegenseitige Validierung der abgeleiteten Implikationen zur Ursache erreicht. Menschliche Faktoren beinhalten Fahrkompetenz und Fahrperformanz (z. B. unter Einflüsse von Rauschmitteln). Algorithmen – Fundament der Informatik Die moderne Informationstechnologie verdankt ihren Aufschwung der Möglichkeit, Berechnungen immer schneller durchzuführen. Parallelisierungen und schneller getaktete Prozessoren treten in ihrem Einfluss aber deutlich hinter den Anteil zurück, den effiziente Algorithmen haben. Während erstere nur linear die Rechengeschwindigkeit steigern können, sind dem Erfindergeist der Informatiker massiv stärkere Steigerungen gelungen. Das Max-Planck-Institut für Informatik widmet sich der Entwicklung und Verbesserung von Algorithmen in allen seinen Forschungsschwerpunkten. Neue Erkenntnisse, die in Veröffentlichungen auf höchstem wissenschaftlichen Niveau der Öffentlichkeit zugänglich gemacht werden, sowie die Heranbildung von akademischem Nachwuchs, sorgen nachhaltig dafür, dass immer bessere, schnellere und vor allem zuverlässigere Berechnungsverfahren im Bereich Informationstechnologie Einzug in die vielfältigen Einsatzgebiete der Informatik halten. Forschungsspektrum Ÿ Grundlagenforschung (Algorithmen und Komplexität, Logik der Programmierung) Ÿ Computergrafik Ÿ Geometric Computation Ÿ Constraint Solving Ÿ Programmverifikation Ÿ Datenbanken und Informationssysteme Ÿ Bioinformatik und Angewandte Algorithmik Ÿ Automatisierung der Logik MPI-INF Campus E1 4 www.mpi-inf.mpg.de Interdisziplinäre Synergien Die beschriebenen Projekte bearbeiten wesentliche Teilaspekte der Mobilität. Mobilität der Zukunft wird aber insbesondere aus dem synergetischen Zusammenspiel einer Vielzahl von Komponenten entstehen. Aus der Zusammenarbeit der unterschiedlichen Disziplinen in der Zukunftswerkstatt Mobilität sind bereits erste interdisziplinäre Ansätze entstanden, die es nun weiter auszubauen gilt. So wird gemeinsam an Mobilitätsanwendungen und Simulationsdienstleistungen für den Rehabilitationsbereich gearbeitet, die es ermöglichen, individuelle Mobilität zu Fuß, per Rad oder per Automobil auch bei körperlichen Einschränkungen zu fördern. Nichtsdestotrotz können die bisherigen Aktivitäten nur einzelne Elemente einer zukünftigen Mobilität adressieren. Technische Ansätze müssen durch Änderungen im Nutzerverhalten ebenso wie von politischen Rahmenbedingungen ergänzt werden. Eine Ausweitung und weitere interdisziplinäre Vernetzung der Zukunftswerkstatt Mobilität im Universitätsumfeld wird daher angestrebt und dem Zukunftsthema Mobilität die Bedeutung zukommen lassen, die ihm gebührt. 2050, vielleicht: »Die Städte sind grün, lebenswert, fußgänger- und radfahrerfreundlich und ermöglichen vielfältige multimodale Mobilitätsmöglichkeiten ...« [7] Referenzen: 1. http://de.wikipedia.org/wiki/Mobilität, 18.04.2013 2. Stockburger, C.: Apokalypse Stau, Spiegel Online, 13.03.2012 3. Deutscher Bundestag: Schlussbericht Globalisierung der Weltwirtschaft, 2002 4. European Energy Agency: TERM 2009 5. Weltkommission für Umwelt u. Entwicklung: Our Common Future (Brundtland-Bericht), 1987 6. McKinsey Global Institute: The Carbon Productivity Challenge, 2008 7. Fraunhofer ISI: Vision für nachhaltigen Verkehr in Deutschland (VIVER), 2011 Ihr Weiterbildungspartner ■ ■ ■ ■ ■ ■ Argumentations- und Überzeugungstechnik Konfliktstrategie Mitarbeiter erfolgreich führen Existenzgründerseminar Workshop "So erstellen Sie Ihren eigenen Businessplan" Präsentieren und Moderieren Infos: Cornelia Fauss, 0681 5809-132 [email protected] Diese Anzeige wurde gefördert durch das Ministerium für Wirtschaft, Arbeit, Energie und Verkehr des Saarlandes. V Prof. Dr.-Ing. Michael ielhaber hatte seit 1994 nach einem Maschinenbau-Studium in der Industrie unterschiedliche, teils leitende Tätigkeiten in den Bereichen Konstruktion, Produktentwicklung und Engineering-IT inne. 2005 schloss er seine Industriepromotion im Bereich Entwicklungsmethodik ab. Berufsbegleitend absolvierte er darüber hinaus ein Studium des Wirtschaftsingenieurwesens. Seit 2010 hat er an der Universität des Saarlandes den Lehrstuhl für Konstruktionstechnik inne und bildet damit mit weiteren Lehrstühlen das Kompetenzfeld Produkt- und Produktionsentwicklung. Gemeinsam mit Dr. Christian Müller vom DFKI leitet er die »Zukunftswerkstatt Mobilität«, eine Forschungsund Testplattform der Universität des Saarlandes und des DFKI für innovative Technologien für die Mobilität von morgen. M Dr. Christian üller promovierte 2005 im Fach Informatik an der Universität des Saarlandes. Im Anschluss absolvierte er von 2006 bis 2008 als Stipendiat ein zweijähriges Post-Doc-Programm an der renommierten University of California Berkeley. Er ist Autor und Koautor zahlreicher wissenschaftlicher Publikationen und erhielt dafür mehrere Auszeichnungen. Derzeit arbeitet der Wissenschaftler im DFKI-Forschungsbereich »Intelligente Benutzerschnittstellen« und ist Leiter der Automotive-Gruppe. Als so genannter »Action Line Leader Intelligent Mobility and Transportation Systems« ist er maßgeblich verantwortlich für das Programm der europäischen »Knowledge and Innovation Community« EIT ICT Labs mit Partnern wie Deutsche Telekom, Siemens, SAP, Nokia, Ericsson, Philipps, France Telecom, Telecom Italia sowie führenden Universitäten und wissenschaftlichen Instituten. Dr. Christian Müller wurde am 04. Oktober 2012 zum DFKI Research Fellow ernannt. Anlässlich seiner Ernennung hielt er den Vortrag »Von der Mensch-Maschine-Interaktion zur Mensch-Maschine Kooperation: Neue Herausforderungen für Automobile Intelligente Benutzerschnittstellen?«. Maßgeschneiderte Sehqualität durch experimentelle Grundlagenforschung Prof. Dr. Achim Langenbucher Dipl.-Phys. Marc Kannengießer Experimentelle Ophthalmologie An der Schnittstelle von Medizin und Technik hat sich die Experimentelle Ophthalmologie als eine neue, maßgeblich die erfolgreiche Forschung auf dem Gebiet der Augenheilkunde bestimmende Disziplin etabliert. Am Universitätsklinikum des Saarlandes in Homburg ist es der Initiative des Direktors der Augenklinik, Professor Berthold Seitz, zu verdanken, dass im September 2009 das Institut für Experimentelle Ophthalmologie (XO) gegründet und damit der Grundstein für die Stiftungsprofessur für experimentelle Ophthalmologie gelegt wurde. Professor Achim Langenbucher, der 2009 den Ruf nach Homburg angenommen hat, leitet dort seither ein internationales Team von Wissenschaftlern aus Elektround Biomediziningenieuren, Feinwerktechnikern und Laserphysikern. Dieses deutschlandweit einzigartige interdisziplinäre Team bearbeitet unter vielfältigen wissenschaftlichen Aspekten Problemstellungen aus dem klinischen Alltag. Der vorliegende Beitrag vermittelt einen kurzen Überblick über die aktuelle Forschung. Das Team: Benedikt Zelzer, Alexis Speck, Edgar Janunts, Melanie Gillner, Marc Kannengiesser, Achim Langenbucher, Timo Eppig (v.l.n.r.) lassen sich von ein paar Experimentelle Ophthalmologie Schneeflocken nicht erschrecken 7 24 3 25 Der Graue Star – eine häufige Erkrankung im Alter Durch den medizinischen Fortschritt steigt die Lebenserwartung in Europa und auch weltweit. In Europa bedeutet dies, dass bei 40 % der älteren Menschen die Linse im Auge eintrübt, es kommt zum sogenannten grauen Star (Katarakt). Beim grauen Star trübt sich die Linse langsam ein bis der Mensch nur noch graue Schatten sehen kann und die Umwelt undeutlich bis gar nicht mehr wahrnimmt. Heute werden weltweit etwa 20 Millionen Kataraktoperationen pro Jahr durchgeführt. Bei einer Kataraktoperation wird dem Patienten die trübe, eigene Linse mit einem speziellen mikrochirurgischen Verfahren (Phakoemulsifikation) entfernt und eine künstliche Intraokularlinse (IOL) eingesetzt. Diese Operation zählt heute zu den Standardoperationen und wird hauptsächlich ambulant durchgeführt. Viele namhafte national und international tätige Firmen haben Intraokularlinsen entwickelt, auch sind sie in vielen verschiedenen Geometrien und Materialien erhältlich. Neben rotationssymmetrischen Intraokularlinsen werden seit einigen Jahren auch torische IOL zur Korrektur des Astigmatismus angeboten. Einige Hersteller bieten neben sphärischen IOL auch solche mit einer ellipsoiden Rotationssymmetrie zur Korrektur sphärischer Aberrationen (= rotationssymmetrischer Abbildungsfehler) des mensch- lichen Auges an. In keinem Fall werden jedoch Intraokularlinsen zur Korrektur der individuellen Abbildungsfehler des Auges eines einzelnen Patienten offeriert. Als Messgerät zur Bestimmung der für einen Patienten geeigneten StandardIntraokularlinse hat sich der IOL-Master von Zeiss-Meditec durchgesetzt. Dieses Gerät ist jedoch nicht in der Lage, die Abbildungsfehler des menschlichen Auges zu analysieren und/ oder den künftigen Sitz der zu implantierenden IOL präzise vorherzusagen. Die Entwicklung immer präziserer Dreh- und Fräsmaschinen hat in den letzten Jahren dazu geführt, dass Kontaktlinsen und Intraokularlinsen mit Oberflächen in optischer Qualität gedreht werden können ohne anschließende Politur. Dies ist Voraussetzung für die Entwicklung individueller Intraokularlinsen, bei denen erstmals Oberflächen in nahezu beliebiger Geometrie gefertigt werden müssen. Die derzeit gültige Norm für die Vermessung von Intraokularlinsen und die dafür verfügbaren Messinstrumente eignen sich uneingeschränkt nur für sphärische, torische und multifokale IOL-Optiken. Bereits für die Messung der in den letzten Jahren eingeführten asphärischen IOL-Optiken sind diese Messverfahren nur bedingt geeignet. Für die abschließende Vermessung der individuellen IOL ist daher die Entwicklung eines geeigneten Messverfahrens unverzichtbar. Entwicklung neuartiger, individueller implantierbarer Linsen für die Kataraktchirurgie Hier leistet die XO einen essentiellen Beitrag: Durch eine Vielzahl an Berechnungen ist es möglich, eine IOL-Oberfläche derart herzustellen, dass die übrigen Sehfehler des Patienten korrigiert werden und die bestmögliche Sehleistung erreicht wird. Diese Art der IOL gilt als Premium-Medizinprodukt der nächsten Generation, denn sie wird individuell auf das Auge des jeweiligen Patienten maßgeschneidert. In diesem Zusammenhang steht der Ausspruch »Maßgeschneiderte Sehqualität«. Die Forschungsgruppe XO in Homburg arbeitet derzeit an der Simulation und Entwicklung einer Intraokularlinse (IOL), welche die individuellen optischen Fehler des Erforderlich hierfür ist die Komposition und Validierung einer mathematischen Strategie und Implementierung in ein Softwarepaket, mit denen sich aus den Messergebnissen der Patientenuntersuchung die Geometrie einer adäquaten Intraokularlinse berechnen lässt, welche die Abbildungsfehler des Auges bestmöglich korrigiert. Das Design einer Intraokularlinse, deren Optik aufgrund der geometrischen Konstruktion ihrer Verankerung im Auge (Haptik) nach der Implantation die prognostizierte Position im Auge einnimmt und sich dort stabilisiert, also Dislokationen wie Dezentrierung, axiale Verschiebung oder Verkippung/Rotation vermeidet ist eine ebenso entscheidende Voraussetzung wie die Entwicklung eines Messsystems einschließlich Programmierung und standardisiertem Messprotokoll zur Qualitätskontrolle der individuellen IOL und einer für ein Medizinprodukt der Klasse IIb (Sonderanfertigung für individuelle Patienten) erforderlichen Technischen Dokumentation einschließlich Prüfungen und Bewertungen. a) b) c) d) a) b) Abb. 2 a ) – d ): Simulation von Freiform-IOL-Topographien und deren Aberrationen c) Abb. 1 a)–c): Experimentelle Evaluierung von Freiform IOL-Oberflächen mit modernster Mikroskoptechnologie und optischer Kohärenztomographie (OCT) Patientenauges vollständig korrigiert. Eine erfolgreiche Durchführung des Projektes erfordert die Entwicklung eines diagnostischen Verfahrens, mit dem die Abbildungsfehler des menschlichen Auges vollständig gemessen werden können und die Ableitung einer Vorschrift, mit der die Position des Kunstlinsenimplantates im Auge nach der Kataraktoperation zuverlässig vorhergesagt werden kann. Entwicklung von Arbeitsschutzbrillen mit verbesserter und reproduzierbar herstellbarer Abbildungsqualität Arbeiten oder Tätigkeiten im potentiellen Gefahrenbereich chemischer Substanzen oder im Bereich, in dem die Möglichkeit einer mechanischen oder thermischen Verletzung vorliegt, müssen laut der geltenden berufsgenossenschaftlichen Verordnung (BGV A 1 ) mit einem adäquatenAugenschutz durchgeführt werden. Der Tragekomfort der Brillen(-fassungen) hat sich in den vergangenen Jahren deutlich verbessert, was in erster Linie auf neuartige Werkstoffe für die Brillenfassung zurückzuführen ist. So wurde vor einigen Jahren der technisch anspruchsvolle 2-Komponenten-Spritzguss eingeführt, der im empfindlichen Kontaktbereich zwischen Haut und Fassung weichere und hautfreundlichere Materialien ermöglicht im Vergleich zu Teilen der Fassung, welche eine hohe Stabilität aufweisen müssen. Der Schwerpunkt der normativen Anforderungen für Arbeitsschutzbrillen zielt weitestgehend auf die Schutzwirkung, das heißt die Brillen müssen bestimmten Tests wie einem mechanischen Beschuss mit Metallkugeln oder chemisch aggressiven Substanzen widerstehen. Die Anforderungen an die optische Performance der Brillen beziehen sich überwiegend auf die refraktive Nullwirkung und Transparenz der Scheiben (DIN EN 166), spielen jedoch im Vergleich zur Schutzwirkung eine eher untergeordnete Rolle. Oft wird eine Schutzbrille jedoch nicht akzeptiert, da das Sichtfeld eingeschränkt ist oder optische Verzerrungen der Scheiben die Sicht durch die Brille derart beeinträchtigen, dass Ermüdungserscheinungen, Spannungskopfschmerz und Konzentrationsverlust die Folge sind und die Tätigkeit nicht zufriedenstellend ausgeführt werden kann. So wird nicht selten auf eigene Gefahr auf einen Augenschutz komplett verzichtet, wenn die Qualität der Arbeit durch das Tragen der Brille, speziell durch optische Verzerrungen, beeinträchtigt ist. a) b) Experimentelle Ophthalmologie Abb. 3 a), b): Aufbau und Messung von abbildungsoptimierten Schutzbrillen 7 26 3 27 Wird der geforderte Augenschutz nicht getragen, so können schwere, zum Teil irreversible Verletzungen des Auges resultieren: Wichtig zu nennen sind hierbei chemische Verätzungen durch Säuren oder Laugen, stumpfe oder perforierende Traumata bis hin zum Platzen des Bulbus aufgrund von mechanischen Irritationen, oder auch Verbrennungen bei exzessiven thermischen Belastungen. Während refraktionskorrigierende Brillen in aller Regel auf eine gute Abbildungsqualität hin optimiert sind und optisch störende Phänomene minimieren, wurden Schutzbrillen in der Vergangenheit hauptsächlich auf die Schutzwirkung hin optimiert und Gesichtspunkte wie die optische Abbildungsqualität beim Blick durch die Brille spielten eine untergeordnete Rolle. So können neben Achsenfehlern aufgrund eines prismatischen Effektes der Scheiben auch Fehler wie Defokus, Astigmatismus oder Aberrationen höherer Ordnung auftreten. Speziell Aberrationen höherer Ordnung wie Koma, Dreiblattfehler, oder auch sphärische Aberrationen sind dafür verantwortlich, dass die optische Qualität einer Schutzbrille trotz Konformität zur bestehenden Norm unzureichend ist und bei Arbeiten mit gefordertem Augenschutz nicht zuverlässig getragen wird. Bei der Konzeption neuartiger Schutzbrillen marktführender deutscher Firmen ist die Experimentelle Ophthalmologie (XO) maßgeblich beteiligt. Ihre Vision ist eine Schutzbrille, die nicht nur sicher, sondern angenehm zu tragen ist. Um die bisherigen Ansprüche an optischer Qualität noch zu übertreffen, werden modernste Simulationsprogramme genutzt, die die Oberflächenbeschaffenheit der Brillen und deren Auswirkungen präzise simulieren. Im Rahmen des Projektes »Improved Vision for Occupational Eye Safety« soll eine Prozesskette vollständig abgebildet werden, die von der Simulation und Berechnung neuer Scheibendesigns über die Optimierung und Vermessung der Spritzgussformen (Spiegeleinsätze) bis hin zur fertigen Arbeitsschutzbrille reicht. So sollen neue, abbildungsoptimierte Designs für Schutzscheiben entwickelt werden, die aufgrund des höheren Tragekomforts deutlich besser vom Anwenderkreis akzeptiert werden als herkömmliche Arbeitsschutzbrillen. Für die Entwicklung abbildungsoptimierter Scheiben sollen die Einflussgrößen bei der Umsetzung der Optikdesigns in Spiegeleinsätze evaluiert und hochpräzise Messsysteme für die optische Vermessung implementiert werden. Darüber hinaus sollen die Polierprozesse zur Regeneration der Spiegeleinsätze optimiert, sowie das Abformverhalten im Spritzgussprozess und die Einflussgrößen der Beschichtung untersucht werden. b) a) Abb. 4 a), b) : F E M -Simulation und Modellierung neuartiger Schutzbrillendesigns Am Ende der Prozesskette sollen die Scheiben vor und nach der Assemblierung in die Brillenfassungen optisch vermessen werden, um mechanische Spannungen der Scheiben im Brillengestell zu erfassen. Hierfür wurde in einem vorangegangenen Projekt bereits ein Messsystem entwickelt, mit dessen Hilfe die Wellenfrontaberrationen von Arbeitsschutzbrillen im verwendungsrichtigen Zustand, d. h. mit aufgeweiteter Fassung und unter verschiedenen Durchblickpunkten, gemessen werden können. a) Zusammenarbeit über fachliche und institutionelle Grenzen hinweg Trotz der Zugehörigkeit zur Medizinischen Fakultät ist die Forschung der XO interdisziplinär und ingenieurwissenschaftlich geprägt. Dies wird durch zahlreiche Kooperationen mit namhaften Industriepartnern unterstrichen. Das Institut ist aber auch Anlaufstelle für gutachterliche Stellungnahmen bei allen das Auge betreffenden Bereichen. Der naturwissenschaftliche Hintergrund erlaubt die Rekonstruktion und Simulation einer Vielzahl von Szenarien, wie das Tragen von (Schutz-)Brillen oder Linsen, um aussagekräftige Beurteilungen abzugeben. Ein Beispiel hierfür ist die Entwicklung von Systemen zur Durchführung von Belastungstests von Brillen unter Projektilbeschuss. b) Abb. 5 a), b): Konzeptskizze und Umsetzung eines Aufbaus für Untersuchungen von Schutzbrillen unter Projektilbeschuss Softwaresysteme – Rückgrat der vernetzten Welt L Prof. Achim angenbucher ist Ingenieur für Elektrotechnik, wurde an der Universität Erlangen in Augenheilkunde promoviert und habilitierte sich dort in der experimentellen Ophthalmologie. Damit vereint Langenbucher in seiner Person die Kombination, die für eine erfolgreiche Forschung auf dem Gebiet der Ophthalmologie maßgeblich ist: die Schnittstelle von Medizin und Technik. Der Experte für Medizinische Physik nahm 2009 den Ruf an die Universitätskliniken des Saarlandes an und ist seither Leiter des Instituts für Experimentelle Ophthalmologie. Computersysteme bilden mittlerweile den Kern in sehr vielen wichtigen Prozessen in Wirtschaft, Wissenschaft und Administration. Sie durchdringen das tägliche Leben mehr und mehr. Mit wachsender Komplexität wird deren direktes Verständnis für den Einzelnen schwierig bis unmöglich. Ein großer Schwerpunkt des Max-Planck-Instituts für Softwaresysteme besteht darin, das wissenschaftliche Fundament, also die Grundlagen von Softwaresystemen zu legen. Unsere Forscher entwickeln neuartige Methoden, Technologien und Werkzeuge, die die Möglichkeiten bei Design, Analyse und Betrieb von sicheren und zuverlässigen Softwaresystemen verbessern. Hierbei erforscht ein Team von internationalen Wissenschaftlern grundlegende Strukturen und Verknüpfungen von Softwaresystemen, um die störungsfreie und eindeutige Kommunikation von Systemen zu gewährleisten. K Experimentelle Ophthalmologie Dipl.-Phys. Marc annengießer studierte Physik an der TU Kaiserslautern, wo er 2010 seine Diplomarbeit auf dem Gebiet der Terahertz-Messtechnik am Fraunhofer IPM schrieb. Im Rahmen seiner Promotion entwickelt er seit Mitte 2010 am Institut für Experimentelle Ophthalmologie neuartige Lösungen für Intraokularlinsen und deren Qualitätsmanagement. Im Rahmen einer EU-geförderten Kooperation mit der Klinik für Hals-, Nasen- und Ohrenheilkunde am UKS erforscht er neuartige Hörprothesen auf Basis modernster Lasertechnologie. 7 28 3 29 Forschungsspektrum Ÿ Grundlagenforschung in Sprachdesign, Analyse, Modellierung, Einführung und Auswertung von Softwaresystemen Ÿ Systemprogrammierung Ÿ Vergleich von dezentralen und Netzwerksystemen sowie von eingebetteten und autonomen Systemen Ÿ Aspekte der formalen Modellierung, Analyse, Sicherheit und Stabilität von modernster Softwaretechnik Standorte Kaiserslautern Saarbrücken MPI-SWS Campus E1 5 www.mpi-sws.org Historische Wirtschaftskrisen als Lehrstücke – Investitionen in die Realwirtschaft zahlen sich aus Professor Dr. Margrit Grabas Dr. Veit Damm Wirtschafts- und Sozialgeschichte (einschließlich Technik- und Umweltgeschichte) Aus Krisenzeiten können Staaten sogar gestärkt hervorgehen, wenn richtige Weichen gestellt und gute Entscheidungen getroffen werden. Was in der Krise hilft und was eher schädlich ist, erforschen Saarbrücker Wirtschaftshistoriker: Professor Margrit Grabas und ihr Team untersuchen historische Wirtschaftskrisen und ziehen Lehren aus der Vergangenheit für die Zukunft. Kurz vor dem Abschluss steht jetzt ein Projekt über Konjunktur- und Strukturkrisen der Jahre 1966 bis 1982, das die Deutsche Forschungsgemeinschaft (DFG) fördert. Das Projekt hat in wirtschafts- und sozialhistorischer Perspektive die Untersuchung der Rezessionen von 1966/67, 1974/ 75 und 1981/ 82 zum Gegenstand. Es nimmt mit dem Saarland eine Region in den Blick, die in diesem Zeitraum ein typisches Beispiel für die Überlagerung montanindustrieller Strukturkrisen und mehrerer konjunktureller Einbrüche darstellte. Analysiert werden weiterhin die Krisenbewältigungsstrategien durch die Politik und die Wirtschaft, wobei im Untersuchungsgebiet neben der Subventionierung der alten Industrien zur Gewährleistung eines sozialverträglichen Abbaus der Arbeitskräfte sowie zur Förderung des Strukturwandels die Institutionalisierung einer verstärkten Kooperation im Saar-Lor-Lux-Raum sowie die Förderung von Clusterbildungen eine zentrale Rolle spielten. punkt zunehmend sozial konstruierte Wirklichkeit, sondern zugleich auch kommunikativ beschleunigte oder blockierte Prozesse des Lernens und der Neuorientierung. Insofern sind Wirtschaftskrisen sowohl Ereignis als auch Prozess und in dieser Einheit wiederum struktureller Baustein eines längerfristigen Prozesses.« 2 Dabei besitzt jedoch nicht jede Wirtschaftskrise gleichermaßen sozioökonomisches Veränderungspotential. »Während konjunkturell bedingte Rückschläge industriell-marktwirtschaftlicher Entwicklung lediglich dazu beitragen, ökonomische Verhaltenspfade wachstumsrelevant zu stabilisieren oder entlang einer strukturell gegebenen Produktionsfunktion zu verbreitern, leiten Strukturkrisen in der Regel einen grundlegenden Wandel (markt-)wirtschaftlicher Strukturen und institutioneller Regelmechanismen ein. Hintergrund bildet sowohl eine (relative) Erschöpfung wachstumstragender Basisinnovationen als auch eine Verkrustung verhaltensorientierender Normen- und Wertesysteme, so dass die daraus resultierende Destabilisierung des Wachstums steigende soziale – politisch brisante – Kosten generiert. Strukturkrisen treten zwar zunächst als kurzfristiger konjunktureller Rückschlag in Erscheinung, weisen aufgrund ihres transformatorischen und globalen Charakters aber schon bald einen gesellschaftsübergreifenden Ausprägungsgrad auf.«3 Was sind Wirtschaftskrisen? Krisen werden im Projekt als historische, »ganz direkt und unmittelbar von den zeitgenössischen Akteuren wahrgenommene und erlebte – durch Unsicherheit und Verlust geprägte – Wirklichkeit« verstanden, die »eine auf kurze Zeit zusammengedrängte, emotional verdichtete Steuerungsrelevanz individuellen und kollektiven Verhaltens« besitzen.1 Moderne Wirtschaftskrisen stellen eine spezifische Erscheinungsform konjunktureller Abschwungsbewegung marktwirtschaftlichen Wachstums dar. »Aufgrund ihrer Folgewirkungen können sie als Achillesferse des industriekapitalistischen Systems bezeichnet werden: Sie verursachen nicht nur – mehr oder weniger – dramatische Vermögens-, Gewinn- und Einkommensverluste, Arbeitsplatzabbau, Investitionsrückgänge sowie Import- und Exporteinbrüche, sondern destabilisieren zugleich das Vertrauen in Institutionen sowohl des Wirtschaftslebens als auch von Politik und Gesellschaft. Sowohl Entstehung als auch Verlaufsdynamik von Wirtschaftskrisen sind an soziokulturell eingebettete und institutionell-politisch sanktionierte Akteursentscheidungen in Vergangenheit und Gegenwart gebunden, die letztlich immer kommunikativ vermittelt und zukunftsrelevant sind. Wirtschaftskrisen sind damit nicht nur kommunikativ transportierte und ab einem bestimmten Zeit1. Grabas, Wandel, Krise, Umbruch, S. 17 ff. 2. Dies., Wirtschaftskrisen in soziokultureller Perspektive, S. 282 f. Das Beispiel des Saarlands: Die Wirtschaftskrisen der »langen« 1970er Jahre Die saarländische Wirtschaft durchlief in den »langen« 1970er Jahren eine krisenhafte Entwicklung, die Wirtschaftspolitik und Unternehmen vor neue Herausforderungen stellte. Die Struktur der Wirtschaftsregion wandelte sich, die Bedeutung des Stahlindustrie sank und eine Vielzahl von Einzelunternehmen der Branche verschmolz zu einem Gesamtunternehmen. Werke wurden stillgelegt und tausende Beschäftigte entlassen. Die krisenhaften Unternehmensentwicklungen der »langen« 1970er Jahre führten zu Rationalisierungen und Spezialisierungen, die eine Kontinuität des saarländischen Stahlproduktions-Standorts – wenn auch 3. Grabas, Wirtschaftskrisen in soziokulturell er Perspektive, S. 282 f. Vgl. aber auch: Dies., Die Gründerkrise von 1873/ 79 – Fiktion oder Realität?, S. 85. in einer anderen Gestalt – ermöglichten. Der Fusions- und Modernisierungsprozess wurde jedoch von Belegschaft und Gewerkschaft keineswegs nur positiv aufgefasst, sondern vielmehr häufig als Bedrohung empfunden. In den 1980er Jahren machte sich eine ausgeprägte Krisenstimmung breit, die den Restrukturierungsprozess entscheidend beeinflusste. Abb. 1: Wachstumsraten des Bruttoinlandsproduktes in der Bundesrepublik und dem Saarland von 1965–1984* Abb. 2: Die Entwicklung der Arbeitslosenquote in der Bundesrepublik und im Wirtschafts- und Sozialgeschichte Saarland (1965–1984)** 7 30 3 31 Im Projekt konnte gezeigt werden, dass durch die Dominanz der Stahlindustrie eine erhöhte Konjunkturreagibilität des saarländischen Wirtschaftsstandorts bestand, die im Untersuchungszeitraum krisenhaft ausgeprägt war. Durch die Ansiedlung der Autoindustrie – einer weiteren stark konjunkturabhängigen Branche – ist dieses Merkmal auch in den folgenden Jahrzehnten – bis zur Gegenwart – prägend. Dies ist unter den Rahmenbedingungen der sozialen Marktwirtschaft der BRD jedoch keineswegs einseitig als Nachteil des Standorts zu bewerten, da die Wirtschaft des Saarlandes in Konjunkturhochphasen und bei der Vergabe von staatlichen Konjunkturprogrammen wiederholt überdurchschnittlich stark profitierte. Allerdings ist die saarländische Bevölkerung aufgrund der regionalwirtschaftlichen Strukturmerkmale auf diese Weise auch immer wieder großen – mitunter existenzbedrohenden – Belastungen ausgesetzt. Innerhalb der bundesdeutschen Wirtschaftspolitik nahm das Saarland immer eine besondere Stellung ein. Dies resultierte zu einem großen Teil aus der Wiedereingliederung des nach dem Krieg französisch besetzten Landes in die Bundesrepublik seit 1957/ 59, die nicht zuletzt durch wirtschaftliche Maßnahmen unterstützt werden sollte. Die praktisch gleichzeitig einsetzende Kohlekrise, die man wohl als erste Strukturkrise der sich noch in einer historisch einzigartigen Prosperitätsphase befindenden bundesdeutschen Wirtschaft bezeichnen kann, hat erst im Zusammenhang mit der Rezession von 1966/ 67 und in erster Linie durch ihre Auswirkungen auf das Ruhrrevier breitere Aufmerksamkeit in der bundesrepublikanischen Öffentlichkeit gefunden. Allerdings konnte gezeigt werden, dass im Saarland – im Gegensatz zu fast allen anderen Regionen in der Bundesrepublik – bereits während dieser Rezession keine Vollbeschäftigung mehr existierte. Es kann daher auch nicht überraschen, dass die Regierung des Saarlandes bereits früh eine aktive Industriepolitik betrieb. Mit der Ansiedlung der Fordwerke in Saarlouis – die Grundsteinlegung erfolgte am 16.09.1966 – gelang schon früh ein erster Erfolg, der auch tatsächlich sozioökonomische Kopplungseffekte auslöste; weitere Unternehmen folgten. So entstanden im Saarland durch die Förderung von Industrieneuansiedlungen zwischen 1968 und 1973 knapp 40.000 neue Arbeitsplätze, besonders im Fahrzeug- und Maschinenbau. Es begann ein intraindustrieller Strukturwandel, in dem die Investitionsgüterindustrie einen herausragenden arbeitsmarktrelevanten Stellenwert erhielt – akzeleriert durch die Mitte der 1970er Jahre ausbrechende Stahlkrise löste sie schließlich die Montanbranche als wichtigsten Arbeitgeber des Landes ab. Das Saarland durchlief aufgrund der im bundesdeutschen Vergleich schärferen Rezession von 1966/ 7 – so eines der Hauptergebnisse des Projekts – insofern schon wesentlich früher strukturelle Anpassungsprozesse an veränderte Marktbedingungen als andere Bundesländer. Zwar konnte auf diese Weise die Rezession von 1974/ 5 abgeschwächt, nicht aber – wie die Entwicklungen bei Röchling zeigen – die erst www.knf.de MEMBRANPUMPENTECHNOLOGIE VOM FEINSTEN... 쮿 Ob für Gase, Dämpfe oder Flüssigkeiten – KNF Neuberger bietet ein breites Angebot an Pumpen und Systemen. 쮿 Für unverfälschtes Fördern, Dosieren, Komprimieren und Evakuieren. 쮿 Als OEM- oder tragbare Ausführungen. 쮿 Mit einem variablen Produktprofil für kundenspezifische Lösungen. KNF Neuberger GmbH Alter Weg 3 ı D 79112 Freiburg ı Tel. 07664/5909-0 ı Fax -99 ı E-Mail: [email protected] von diesem Zeitpunkt an mit ganzer Wucht sich entfaltende Strukturkrise in der Eisen- und Stahlindustrie abgewendet werden.4 Dadurch erhielt die Restrukturierung der saarländischen Wirtschaft nicht nur eine neue Qualität, sondern zugleich – verstärkt durch die Auswirkungen der internationalen Rezession von 1981/ 2 – eine langfristige Folgedimension. Literatur — Margrit Grabas, Uwe Müller, Veit Damm, Die Stunde der Restrukturierung. Die Konjunktur- und Strukturkrisen der »langen« 70er Jahre im Saarland, in: B. Kasten (Hg.), Historische Blicke auf das Land an der Saar. 60 Jahre Kommission für Saarländische Landesgeschichte und Volksforschung, Saarbrücken 2012, S. 447–478 — Margrit Grabas, Wirtschaftskrisen in soziokultureller Perspektive. Plädoyer für eine kulturalistisch erweiterte Konjunktur(geschichts)forschung, in: Geschichte und Gesellschaft. Sonderhefte, Heft 24: Kulturen der Weltwirtschaft, hrsg. v. Abelshauser, W. / Gilgen, D. / Leutzsch, A., Göttingen 2012, S. 261–283 — Margrit Grabas, Die Gründerkrise von 1873/ 79 – Fiktion oder Realität? Einige Überlegungen im Kontext der Weltfinanz- und Wirtschaftskrise von 2008/ 9, in: Jahrbuch für Wirtschaftsgeschichte 2011/ 1. Konjunkturen und Krisen in der neueren Geschichte, S. 69–96 — Veit Damm, Europäische Kooperation als Krisenstrategie? Die wirtschaftliche Zusammenarbeit in der Region Saarland-Lothringen-Luxemburg 1967–1990, in: C. Lehberger / L. Rampeltshammer (Hg.), Einfluss der Europäischen Union auf die Gestaltung der Arbeitswelt, Saarbrücken 2012, S. 31–58 — Veit Damm, Währungsturbulenzen und Arbeitsmarkt in Europa in den 1970er Jahren. Zur Änderung der Parität von D-Mark und Franc und den Folgen für den grenzübergreifenden deutsch-französisch-luxemburgischen Arbeitsmarkt, in: Internationale Wissenschaftliche Vereinigung Weltwirtschaft und Weltpolitik (IWVWW) – Berichte 192 / 193 (2011), S. 95–105 — aus wirtschafts-, sozial- und innovationshistorischer Perspektive, in: Fondation Bassin Minier Abb. 3: Rohstahlproduktion der Röchling’schen Eisen- und Stahlwerke und (Hg.), Mutations, 3. Jg., Luxemburg 2012, S. 11–23 Folgeunternehmen sowie der ARBED S.A. (Durchschnitt 1965–1983 = 100)*** Die regional konzentrierten Strukturkrisen von Bergbau und Schiffbau führten während des Untersuchungszeitraums zur Forderung nach einer Regionalisierung der Konjunkturpolitik bzw. dem Streben nach einer »Synthese von Konjunktur- und Strukturförderung«. Das Saarland gehörte zu den ersten Ländern, die sich für die 1969 realisierte Festschreibung der Regionalpolitik im Gesetz zur Gemeinschaftsaufgabe der Verbesserung der regionalen Wirtschaftsstruktur eingesetzt hatten und zumeist auch von den entsprechenden Infrastrukturmaßnahmen überdurchschnittlich profitierten. Spätestens mit dem offenen Ausbruch der Stahlkrise im Jahre 1975 spielten die strukturellen Probleme der Saarwirtschaft auch auf europäischer Ebene eine wichtige Rolle. 1977 entwickelte die EG-Kommission einen Krisenplan für die Stahlindustrie, der Ablieferungsquoten, Mindestpreise sowie Importrestriktionen enthielt, aber auch eine finanzielle Förderung von Investitionen in produktivere Anlagen sowie ein StahlForschungsprogramm vorsah. Welche Bedeutung die für das Saarland typische Überlagerung von Konjunktur- und Strukturkrisen für die Inangriffnahme und konkrete Ausgestaltung von Krisenbewältigungsstrategien nicht nur auf der Ebene von Land und Bund, sondern zugleich jener der Europäischen Wirtschaftsgemeinschaft hatte und inwiefern diese auf die wirtschaftliche Entwicklung des Landes zurückwirkte, ist in weitergehenden Untersuchungen noch zu vertiefen. Margrit Grabas, Wandel, Krise, Umbruch. Begriffsannäherungen und kritische Reflexionen Quellenangaben Grafiken * Saarland 1965–1970: Statistisches Amt des Saarlandes (Hg.), Statistisches Handbuch für das Saarland 1976, Saarbrücken 1976, S. 390; Bundesrepublik 1965–1970: Norbert Räth, Rezessionen in historischer Betrachtung, in: Statistisches Bundesamt Deutschland (Hg.), Volkswirtschaftliche Gesamtrechnungen. Wirtschaft und Statistik (2009/ 3), S. 203–208, S. 204; Saarland und Bundesrepublik 1971–1984: Volkswirtschaftliche Gesamtrechnungen der Länder. ** Saarland 1967–1969: Statistisches Amt des Saarlandes (Hg.), Statistisches Handbuch für das Saarland 1982, Saarbrücken 1983, S. 78; BRD 1967–1969: Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (Hg.), Wachstum, Beschäftigung, Währungsunion – Orientierung für die Zukunft. Jahresgutachten 1997/98, Wiesbaden 1997, S. 317; BRD und Saarland 1970–1982: Statistisches Amt des Saarlandes (Hg.): Volkswirtschaftliche Gesamtrechnung. Entstehung des Bruttoinlandsprodukts. Revidierte Ergebnisse für das Saarland 1970 bis 1991, Saarbrücken 1993, S. 43. *** Saarland 1965–1970: Statistisches Amt des Saarlandes (Hg.), Statistisches Handbuch für das Saarland 1976, Saarbrücken 1976, S. 390; Bundesrepublik 1965–1970: Norbert Räth, Rezessionen in historischer Betrachtung, in: Statistisches Bundesamt Deutschland (Hg.), Volkswirtschaftliche Gesamtrechnungen. Wirtschaft und Statistik (2009/ 3), S. 203–208, S. 204; Saarland und Bundesrepublik 1971–1984: Volkswirtschaftliche Gesamtrechnungen der Länder. 4. Vgl. Grabas / Müller / Damm, Die Stunde der Restrukturierung, S. 478. G Wirtschafts- und Sozialgeschichte Prof. Dr. Margrit rabas studierte an der Humboldt-Universität zu Berlin, wo sie 1980 zum Doktor der Ökonomie promoviert wurde. Danach arbeitete sie bis Anfang 1986 am Institut für Wirtschaftsgeschichte der Akademie der Wissenschaften der DDR. 1987 war sie zunächst als Gastwissenschaftlerin am Wissenschaftszentrum für Sozialforschung Berlin, dann aber für mehrere Jahre als wissenschaftliche Mitarbeiterin bzw. als Hochschulassistentin am Arbeitsbereich Wirtschafts- und Sozialgeschichte der Freien Universität Berlin bei Professor Drs. Wolfram Fischer tätig. 1991 habilitierte sie sich dort mit einer Arbeit zu »Konjunktur und Wachstum in Deutschland von 1895 bis 1914«. Im Jahr 1992 wurde sie an die Universität des Saarlandes auf den Lehrstuhl für Wirtschafts- und Sozialgeschichte berufen. Seit 2001 ist sie Vorsitzende der »Internationalen Wissenschaftlichen Vereinigung Weltwirtschaft und Weltpolitik e.V.« und seit 2007 zudem federführende Herausgeberin der Publikationsreihe »Schriften zur Wirtschafts- und Sozialgeschichte« im Berliner »Duncker & Humblot« Verlag. Ihre Forschungsinteressen liegen in der kulturalistischen Erweiterung der historischen Krisen- und Wachstumsforschung seit dem frühen 19. Jahrhundert, der Geschichte der Nationalökonomie, der Geschichte des Stoffwechsels zwischen Mensch und Natur sowie auf dem Gebiet des institutionellen und sozioökonomischen Wandels. 7 32 3 33 D amm Dr. Veit studierte Geschichte und Philosophie an den Universitäten Dresden und Cardiff. Seine Promotion schloss er 2006 mit einer Studie zur Geschichte und Unternehmenskultur von Banken und Versicherungen im 19. und frühen 20. Jahrhundert ab. Seit 2008 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl »Wirtschafts- und Sozialgeschichte (einschließlich Technik- und Umweltgeschichte)« an der Universität des Saarlandes. Seine Forschungsschwerpunkte liegen im Bereich der europäischen Wirtschaftsgeschichte im letzten Drittel des 20. Jahrhunderts. Seit 100 Jahren versorgen wir das Saarland mit Strom. Und inzwischen machen wir noch vieles mehr. Wir investieren in die Zukunft unseres Landes. In Erneuerbare Energien, Klimaschutz, Ausbildung und Neue Technologien. Alternde Infrastruktur und wie man mit zerstörungsfreier Prüfung diagnostisch im Bauwesen helfen kann Prof. Dr. Christian Boller (1, 2) Dr. Jochen H. Kurz (1) (1) Fraunhofer Institut für Zerstörungsfreie Prüfverfahren (IZFP) (2) Zerstörungsfreie Prüfung und Qualitätssicherung, Universität des Saarlandes Bauwerke der Infrastruktur halten lange, oft eine ganze Generation und sogar noch länger, aber auch sie sind nicht für die Ewigkeit gebaut. Infrastrukturbauwerke wie Parkhäuser und Tiefgaragen, Brücken oder Industriebauwerke sind besonderen Belastungen ausgesetzt und unterliegen einem kontinuierlichen Alterungsprozess. Feuchtigkeit, Tausalz sowie wechselnde klimatische Bedingungen und die Abnutzung der Oberfläche der Fahrwege durch den Kfz-Verkehr führen zur Degradation. Steigende Achslasten und klimatische Veränderungen haben in den letzten Jahrzehnten diesen Prozess beschleunigt. Insbesondere bei Brücken kann festgehalten werden, dass je größer das Bauwerk, desto schlechter der Zustand, da in Deutschland im Mittel die größten Bauwerke gleichzeitig auch die ältesten sind. Die kumulierten Folgekosten solcher Infrastrukturbauwerke können deren Anschaffungskosten um ein Vielfaches übersteigen. Dies gilt es frühzeitig durch entsprechende Lebenszyklusbetrachtungen zu berücksichtigen. Der folgende Beitrag zeigt auf, dass mit einer präzisen und effizienten Analyse vorhandener Bauwerke eine umfassende Bestandsaufnahme möglich ist mit einer daraus ableitbaren Priorisierung gefolgt von einem effizienten Ansatz zur Verwendung der vorhandenen finanziellen Ressourcen. Komplexe Schädigungsvorgänge erfordern oftmals auch den Einsatz mehrerer Methoden. Zudem sind die Schäden an Infrastrukturbauwerken auf verschiedenen Skalen zu erfassen. Ein wesentliches Element ist hierbei der Einsatz automatisierter ZfP-Systeme (ZfP = Zerstörungsfreie Prüfung). Dabei bleibt der automatisierte Einsatz von zerstörungsfreien Prüfverfahren bei Stahl- und Spannbeton nicht auf ein Verfahren beschränkt, sondern es kommen Multi-Sensor Systeme zum Einsatz. Ein aktuelles Haupteinsatzgebiet für ZfP im Bereich des Bauwesens (ZfPBau) sind Verkehrsinfrastrukturbauwerke, da hier die Verkehrssicherheit der Infrastruktur gewährleistet werden muss. Die ZfP im Bauwesen blickt, im Gegensatz zu ihrer breiten und langjährigen Anwendung an metallischen Werkstoffen, auf eine noch kurze Vergangenheit zurück. Es begann damit, dass im Jahr 1985 die Bundesanstalt für Materialforschung und -prüfung (BAM) gemeinsam mit der Deutschen Gesellschaft für zerstörungsfreie Prüfung (DGZfP) den Stand des Wissens und der Technik der ZfP im Bauwesen zu erfassen und zu dokumentieren begann. Die beiden Institutionen veranstalteten 1986 gemeinsam ein erstes ZfPBau-Symposium. In seinem Grußwort zu dem Symposium begründete der damalige Bundesminister für Forschung und Technologie, Dr. Heinz Riesenhuber, die Notwendigkeit der verstärkten Entwicklung und Anwendung der ZfP im Bauwesen damit, dass von den volkswirtschaftlichen Anlageninvestitionen etwa 60 % auf Bauinvestitionen mit einem Zeitwert von ca. 4,8 Billionen DM entfallen und daher Maßnahmen der zerstörungsfreien Diagnose und zur Erhaltung der Bausubstanz große Bedeutung besitzen. »Die rechtzeitige Feststellung von Mängeln bzw. Schäden ist die notwendige Voraussetzung, um schwerwiegende Folgeschäden und Instandsetzungen zu vermeiden. Darüber hinaus hat auch die Entwicklung zerstörungsfreier Untersuchungsmethoden für denkmalgeschützte Bauwerke eine große kulturpolitische Bedeutung«. Die Richtigkeit dieser Aussagen ist auch heute noch uneingeschränkt zu bestätigen. Seit diesen Anfängen hat durch innovative Entwicklungen die ZfP im Bauwesen ihre Bedeutung kontinuierlich steigern und die Notwendigkeit ihrer Anwendung begründen können. Der vorliegende Beitrag stellt einige aktuelle Entwicklungstrends im Bereich ZfPBau dar, bei denen auch das Fraunhofer IZFP entscheidend beteiligt war bzw. ist. Entwicklungstrends, auch am Fraunhofer IZFP, im Bereich Infrastrukturprüfung Das Inspizieren und Überwachen von Bauwerken ist vielfach eine Prüfaufgabe von großflächiger Dimension. Aus diesem Grund bedarf es automatisierter Prüfgeräte in Form von Robotern. In diesem Zusammenhang haben sog. Prüfmolche auf der Basis von Ultraschalltechnik im Bereich der Prüfung von Stahlpipelines für die Ölförderung eine besondere Bedeutung erlangt. Das Prinzip der Molche ist auf sog. Krabbler erweitert worden, mit denen großflächige Stahlkonstruktionen wie z. B. Stahltanks geprüft werden können. Diese Krabbler können sich bei ferromagnetischen Werkstoffen über Magneträder an den Konstruktionen entlang bewegen. Krabbler werden in diesem Zusammenhang auch zur Prüfung von Schweißnähten an großen Stahlkonstruktionen wie auch Pipelines eingesetzt. Im Projekt BetoScan wurde eine modular aufgebaute Robotik-Plattform zur Inspektion des Korrosionsverhaltens bewehrter Parkdecks entwickelt. In einem Parallelprojekt OSSCAR wurde ein Scanner entwikkelt, der über Saugnäpfe an einer Betonstruktur befestigt werden kann und dann die Betonstruktur mit verschiedenen ZfP-Verfahren abscannt. Eine Beschreibung der beiden Bauwerksscanner ist in [1] zu finden. Eine weitere Entwicklung ist ein auf elektromagnetischer Basis arbeitender rotierender Brückenscanner zur Detektion gerissener Querspannglieder, der an der TU Berlin in Zusammenarbeit mit dem Fraunhofer IZFP entwickelt worden ist [2]. Darüber hinaus gibt es eine Vielzahl von auf Radar basierenden Scannern zur Erkennung von Straßenzuständen einschließlich deren Unterbau, die an Straßenfahrzeugen direkt angebracht werden und eine Befahrung der Straßen bei gleichzeitiger Datenaufnahme je nach verwendeter Antenne mit Geschwindigkeiten von bis zu 80 km/ h ermöglichen [3]. Neuerdings werden auch zunehmend Mikroflugzeuge in die Überlegungen zur Überwachung von Bauwerken einbezogen. Die Flugzeuge, überwiegend auf der Basis von Drehflüglern (Hubschraubern), befliegen die Bauwerke und nehmen die Bauteilstruktur, derzeit überwiegend photographisch, auf, wobei die Bilder dann zusammengesetzt werden, was zunehmend mehr auf automatischer Basis erfolgt. Selbiges Prinzip ist auch angedacht im Bereich der Unterwasser-Prüfung, z. B. im Zusammenhang mit der Prüfung von Spundwänden in Hafenbecken. Auch die Integration von Sensorik und ggf. Aktorik in Bauwerke zur Zustandsüberwachung im Sinne eines Structural Health Monitoring spielt im Baubereich eine zunehmende Rolle. Eine Zusammenfassung aktueller Aktivitäten kann hierzu in [4] gefunden werden. Neue Entwicklungen in der Bestandsaufnahme und Zustandserfassung – Automatisierte Prüfung von Ingenieurbauwerken Die gemeinsame Projektgruppe (Joint Lab) zwischen dem Fraunhofer IZFP und der Bundesanstalt für Materialforschung und -prüfung (BAM) zur ZfP im Bauwesen sowie ein enges Netzwerk an Partnern in diesem Fachbereich hat im Rahmen von zwei durch das Innonet Programm des Bundesministeriums für Wirtschaft und Technologie geförderten Projekten automatisierte Multi-Sensor-Entwicklungen umgesetzt. Das BETOSCAN-System [5] besteht aus einer mobilen Roboterplattform, die quasi autonom über horizontale Flächen (z. B. Parkdecks, Fahrbahnplatten von Brücken) navigieren und gleichzeitig zerstörungsfreie Untersuchungen durchführen kann (Abb. 1, links). Hierfür kamen nur etablierte und bereits erprobte Sensoren und Verfahren zum Einsatz: Ultraschall (Hohlräume, Bauteildicke), Mikrowelle (Feuchteverteilungen), Georadar (Bewehrungsortung), Abb. 1: Links BetoScan, selbstfahrender und autonom navigierender Multi-Sensor Roboter. Rechts OSSCAR, Multi-Sensor Bauwerksscanner. Zerstörungsfreie Prüfung und Qualitätssicherung FRAUNHOFER-INSTITUT FÜR ZERSTÖRUNGSFREIE PRÜFVERFAHREN IZFP 7 34 3 35 Als Forschungsinstitut und Partner für Industrieunternehmen befasst sich das Fraunhofer-Institut für Zerstörungsfreie Prüfverfahren IZFP mit den physikalischen Methoden der zerstörungsfreien Prüfung. Unsere Wissenschaftler und Ingenieure erarbeiten Verfahren zur Materialcharakterisierung, analysieren Produktionsabläufe und Prozesse sowie betriebliche Risiken und entwickeln marktgerechte Prüfgeräte und Systeme. Die Validierung in unserem nach DIN EN ISO / IEC 17025:2005 akkreditierten Dienstleistungszentrum ermöglicht die qualitätsgesicherte industrielle Anwendung unserer Arbeitsergebnisse. Die Verbesserung der Produktqualität bei gleichzeitiger Senkung von Qualitäts- und Produktionskosten steht unter den Aspekten Sicherheit und Verfügbarkeit im Fokus der anwendungsorientierten, industrietauglichen Weiterentwicklungen des Fraunhofer IZFP. Ein weiterer Schwerpunkt bildet die zerstörungsfreie Bauwerksprüfung: Structural Health Monitoring und Zustandserfassung von Infrastrukturbauwerken, Straßen, Brücken und sonstigen Bauwerken aus Stahl- und Spannbeton gewinnen zunehmend an Bedeutung. +49 681 9302 0 | [email protected] | www.izfp.fraunhofer.de Wirbelstrom (Betondeckung), Potentialverfahren (Korrosionswahrscheinlichkeit) sowie Umgebungstemperatur und Luftfeuchte. Der Bediener kann online die Datenaufnahme verfolgen und somit jederzeit eingreifen. Das Gesamtsystem wurde dahingehend optimiert, eine maximale Fahrgeschwindigkeit unter Berücksichtigung der langsamsten Sensoren (Geschwindigkeit der Datenerfassung) zu ermöglichen. Durch die realisierte TCP/IP-Kommunikation zwischen Roboter, Fahrbereichsfestlegung und Datenerfassung konnte ein hochgradig flexibles System geschaffen werden, mit dem beliebige Fahrprofile realisierbar sind. Mit einmalig angelegten Karten sind wiederkehrende Messungen möglich, die zukünftig bei der Bauwerksüberwachung bei Neubauten und nach Instandsetzungen eine wichtige Rolle spielen werden. Für die Auswertemöglichkeiten wurde ebenfalls auf hohe Flexibilität geachtet. Der OSSCAR-Scanner (Abb. 1, rechts) erlaubt die kombinierte Untersuchung mit Ultraschallecho, Radar und Wirbelstrom und die nachfolgende bildgebende Darstellung der Ergebnisse vor Ort [1]. Dabei steht als Prüfaufgabe im Vordergrund, für eine wenige Quadratmeter große Messfläche, die zuvor von einem Brückenprüfingenieur festgelegt wird, detaillierte Kenntnisse über die innere Konstruktion zu gewinnen, um aus den Messergebnissen beispielsweise nachträglich einen Bestandsplan abzuleiten. Visuelle Bauwerksaufnahme mittels fliegender Systeme Bauwerke sind groß und der Aufwand, um sie zu inspizieren demzufolge ebenso. Konventionell werden Bauwerke visuell in der Form geprüft, dass geübte Menschen die Bauwerke von der Nähe in Augenschein nehmen und aufgenommene Schäden von Hand in einem Plan kartieren. Vielfach müssen dazu die Inspektoren über Hebebühnen an das Gebäude herangeführt werden. Dies ist zeit- und kostenaufwändig. Deutlich schneller und kostengünstiger kann eine solche Bauwerksüberwachung mit kleinen unbemannten Fluggeräten erfolgen [6]. Diese Fluggeräte, auch als Micro Aerial Vehicles (MAV) bezeichnet, werden mit hochauflösenden Abb. 2: Oktokopter mit Digitalkamera zur Gebäudeinspektion Digitalkameras versehen, mit denen die zu inspizierenden Gebäude über eine Flut von Bildern photographisch abgerastert werden. Die große Herausforderung besteht dann darin, die Vielzahl an Bildern so passgenau zusammenzusetzen, dass man ein vollständiges Bild des zu inspizierenden Gebäudes – und das möglichst sogar dreidimensional und mit hohem Bildauflösungsvermögen – erhält. Aus den Bildern können Schäden im Millimeterbereich erkannt werden, wobei beispielsweise Rissmuster automatisiert ausgewertet werden können. Als MAV erweisen sich hier Tragflügler (also kleine Hubschrauber) wegen ihrer Manövrierfähigkeit als besonders günstig. Beim Fraunhofer IZFP werden derzeit sogenannte Oktokopter (Abb. 2) eingesetzt, die zusammen mit dem Lehrstuhl für zerstörungsfreie Prüfung und Qualitätssicherung der Universität des Saarlandes weiterentwickelt werden. Das resultierende Fluggerät soll in letzter Instanz nicht nur mit Kameras konventionelle Digitalfotos aufnehmen, sondern auch mit anderer Sensorik bestückt werden, so beispielsweise mit miniaturisierter Thermographie- und Radarsensorik. Abbildung 3 zeigt das zusammengesetzte 3D-Bild des Gebäudes des Fraunhofer IZFP, dessen Oberfläche man sich mit einem erheblichen Auflösungsvermögen im Detail anschauen und dementsprechend automatisiert analysieren kann. Auch kann das betrachtete Gebäude an neuralgischen Stellen jederzeit mit dem MAV nachinspiziert und die resultierenden Neuauf- Abb. 3: Photographisch zusammengesetztes 3D-Modell des Altbaus des Fraunhofer IZFP und herausvergrößerte korrosionsbedingte Betonabplatzung. nahmen in das bestehende 3D-Bild integriert werden. Über zeitliche Abfolgen lassen sich somit auch Schadensentwicklungen aufzeigen. All dies ist anderweitig nur mit vielfach höheren Aufwendungen möglich. FilameNDT: bedarfsorientierte Inspektion von Spannkabeln, Spannseilen und Erdankern FilameNDT ist ein Projekt, bei dem das Fraunhofer IZFP gemeinsam mit dem Carnot Institut VITRES-IFFSTAR bedarfsorientierte ZfP-Verfahren zur Inspektion von Spannkabeln, Spannseilen und Erdankern für Infrastrukturbauwerke wie z. B. Brücken entwickelt und umsetzt. Dabei stehen bei den seilartigen Konstruktionen die verdeckten Bereiche im Vordergrund, weil gerade an diesen äußerlich nicht sichtbare Schäden auftreten, die meist durch Korrosion bedingt sind. Bei einigen Konfigurationen ist auch noch eine Ermüdungsbelastung überlagert. Spannseile und Drahtseile aus Stahl werden schon seit mehr als 100 Jahren für Bauwerke und in der Industrie eingesetzt. Aus Sicht der Zustandserfassung und Fehlerprüfung stellen sie trotz zahlreicher technischer Entwicklungen immer noch eine Herausforderung dar. Hier ist eine zerstörungsfreie Zustandserfassung und Schadensdiagnose gefordert. Da Infrastrukturbauwerke nicht einfach ersetzt werden können, ist eine zuverlässige Kenntnis des Zustands insbesondere der kritischen Orte, der sog. »Hot Spots«, erforderlich. Im Rahmen von FilameNDT werden existierende zerstörungsfreie Prüfverfahren (wie z. B. elektromagnetisch angeregter Ultraschall EMUS, magnetischer Streufluss, mikromagnetische Prüfverfahren und Schallemissionsanalyse) für die Prüfung von seilartigen Konstruktionen angepasst und weiterentwickelt. Mit den Verfahren werden entweder aus Belastung und Schädigung entstehende akustische Signale passiv erfasst (Schallemission), akustische Signale durch das zu überwachende Bauteil gesandt (Ultraschall) oder die Änderung der örtlichen magnetischen Eigenschaften gemessen (Magnetik), wobei jedes Verfahren seine eigenen Spezifika hat und eine Kombination der Verfahren natürlich eine Ultima Ratio darstellt. Für ein Monitoring werden mikromagnetische Verfahren in diesem Umfeld erstmals eingesetzt und die Untersuchungen von Schallemissionsmessungen begleitet. Das an der Saar-Brücke in Mettlach durchgeführte Monitoring mit mikromagnetischen Prüfgrößen zeigte, dass eine spannungssensitive, qualitative Überwachung von komplexen vollverschlossenen Spiralseilen möglich ist. Aufgrund der erforderlichen Sanierung und durch die mittlerweile mehrjährige Kooperation mit dem Saarländischen Landesbetrieb für Straßenbau zu verschiedenen Aspekten der Zustandserfassung und Schadensdiagnose konnte die Saar-Brücke in Mettlach (vgl. Abb.4) für diese Untersuchungen als reales Bauwerk seit Herbst 2011 genutzt werden. Bei den beschriebenen Ansätzen zur lokalen und globalen Schadenserfassung stehen eine einfache Anwendbarkeit sowie langreichweitige Ansätze im Vordergrund. Dafür wird auch auf das Werkzeug der Modellierung von geführten Wellen in Seilkonstruktionen zurückgegriffen. Weitere Projekte Die Notwendigkeit, Schädigungsphänomene in Infrastrukturbauwerken besser zu verstehen hat zu einer Vielzahl weiterer Forschungs- und Entwicklungsprojekte geführt, an denen das Fraunhofer IZFP mit beteiligt ist. Eines davon ist ein sog. INTERREG-Projekt mit dem Namen CURe MODERN [7], wo Industrie- und Forschungspartner aus dem Saarland, verändert, dass niemand mehr die seinerzeit angesetzten Sicherheitsfaktoren garantieren kann. In einem solchen Fall sind dann zerstörungsfreie Prüfverfahren besonders wertvoll, weil sie die fehlenden Bemessungsparameter vielfach in situ bestimmen können. Auch werden gerade im ERA.NET-RUS Forschungsvorhaben UNeCOM akustische Wandler entwikkelt, die in Betonstrukturen einbetoniert werden, die dann in bestimmten Zeitintervallen akustische Signale in die Betonstruktur aussenden und wieder erfassen, womit schließlich ein strukturintegriertes Überwachungs- und damit ›Nervensystem‹ vorliegt, das in eine neue Dimension der Bautechnologie führt, die im Englischen üblicherweise auch mit dem Begriff ›Structural Health Monitoring‹ umschrieben wird. Wirtschaftsprüfung Unternehmensberatung GmbH Wirtschaftsprüfungsgesellschaft, Landwehrplatz 6 - 7, 66111 Saarbrücken, Tel 0681/9338-0, Fax 0681/9338-180, www.wubwp.de, [email protected] Die WUB ist eine Prüfungs- und Beratungsgesellschaft, die sich - wie ein Großteil ihrer Mandanten - inhabergeführt und mittelständisch am Markt positioniert hat. Das bedeutet, die WUB kennt und versteht die besonderen Probleme und Fragen ihrer Mandanten - da diese sie selbst auch betreffen. Vorrangiges Ziel der WUB ist es, den Mandanten individuell ausgerichtete, fachübergreifende, qualifizierte Dienstleistungen anzubieten. Die Betreuung erfolgt jeweils direkt durch einen erfahrenen Partner, unterstützt durch ein festes Team von engagierten Mitarbeitern mit langjähriger Berufserfahrung. Auf die zunehmenden internationalen Aktivitäten ihrer Mandanten und das politische Zusammenwachsen Europas hat die WUB entsprechend reagiert und ein ihrem Leistungsprofil adäquates Angebot im europäischen und im übrigen Ausland installiert. Deshalb ist die WUB Partner von Morison International Ltd., London, einer Kooperation rechtlich und organisatorisch unabhängig voneinander geführter Firmen in der ganzen Welt. Gründungsjahr: 1971 Zerstörungsfreie Prüfung und Qualitätssicherung Mitarbeiter: 55 7 36 3 37 Abb. 4: Saar-Brücke in Mettlach mit einbetonierten Verankerungen der Spannseile Lothringen und Rheinland-Pfalz Zustandserfassung an einer Vielzahl von Bauwerken und Kulturdenkmälern in der Großregion machen, um daraus dann Handlungsmaßnahmen für deren Sanierung abzuleiten. In einem weiteren AiFgeförderten Gemeinschaftsprojekt werden die in Bewehrungseisen bestehenden Spannungen mittels magnetischer Messverfahren bestimmt. Auch dies ist ein wesentlicher Beitrag im Zusammenhang mit der Zustandsbestimmung alternder Bauwerke. Bei vielen Bauwerken liegen heute die Bemessungsgrundlagen aufgrund ihres Alters nicht mehr vor oder die Lasten bzw. Werkstoffzustände haben sich soweit Leistungsspektrum: - Wirtschaftsprüfung - Steuerberatung - Betriebliche Unternehmensberatung - Corporate Finance-Beratung Mandanten (Branchen): - Anlagenbau - schlüsselfertige Industrieanlagen - Metall verarbeitende Industrie - Maschinenbau - Automotive - Softwarehersteller - Finanzdienstleister - Print- und elektronische Medien - Einzel- und Großhandel - Logistikunternehmen Fazit Die zerstörungsfreie Prüfung im Bauwesen ist ein vergleichsweise junges Teilgebiet der industriellen ZfP. Nicht nur deshalb, sondern auch aufgrund der alternden Infrastruktur sowie der modernen Entwicklungen im Bereich der Baustoffe stellt die ZfP hier einen Wachstumsbereich dar. Überall dort, wo Zustandserfassung, Schadensdiagnose und Qualitätssicherung erforderlich sind, will man dies möglichst zerstörungsfrei umsetzen. Relevant sind die Entwicklungen auch für die zunehmende Zahl an Public Private Partnership (PPP)-Projekten bei Infrastrukturbauwerken. Die hier vorgestellten Entwicklungen stellen einen Ausschnitt aus den aktuellen Arbeitsgebieten des Fraunhofer IZFP im Bereich Bauwesen dar. Einen wesentlichen zukünftigen Schwerpunkt wird der Bereich Monitoring und Verknüpfung von mehrskaligen Informationen darstellen. An diesen Punkten wird aktuell schon gearbeitet. Wichtig ist ebenfalls, dass die Entwicklungen möglichst reibungslos in die praktische Anwendung transferiert werden können. Hierfür müssen zum einen im Bereich Regelwerke und Richtlinien entsprechende Voraussetzungen für die Anwendung geschaffen werden und zum anderen ist die Ausbildung und Schulung der andere wesentliche Punkt. Für die Schulung arbeitet das Fraunhofer IZFP aktuell an neuen Konzepten und Umsetzungsmethoden. Literatur 1 Taffe, A., Kind, T., Stoppel, M. ; Kurz, J. H.: Bauwerkscanner zur automatisierten und kombinierten Anwendung zerstörungsfreier Prüfverfahren im Bauwesen. In: Beton- und Stahlbetonbau. 106 (2011), 4, S. 267–276. 2 Hillemeier, B: Schnelle und großflächige Bauzustandserfassung an Spannbetonbrücken, Estrichen und Deckensystemen, in: DGZfP (Hrsg.); Tagungsband zur Bauwerksdiagnose 2008, Berlin, 21.– 22.02.2008, DGZfP BB 112–CD, Vortrag 15 3 Saarenketo T, 2006: Electrical Properties of Road Materials and Subgrade Soils and the Use of Ground Penetrating Radar in Traffic Infrastructure Surveys; Acta Universitatis Ouluensis A 471, Universität Oulu/ Finnland emotion for mobile worlds 4 Boller C, F-K Chang and Y Fujino (Ed.s), 2009: Encyclopedia of Structural Health 5 Hussung, Dieter R., Kurz, Jochen H., Stoppel, Markus: Monitoring; 5 Vol., John Wiley & Sons, Chichester/ GB Automatisierte zerstörungsfreie Prüftechnik für großflächige Stahlbetontragwerke In: Beton- und Stahlbetonbau. 107 (2012), 12, S. 794–804. 6 Kurz, J. H., Boller, C., 2011. Moderne Bauwerksprüfung für Bestandsbauten – Abschlussbericht. Gemeinsamer Bericht von: Dr. Nikolay Avgustinov, Dipl.-Ing. Christian Eschmann, Dr. Jochen H. Kurz, Dipl.-Ing. Ralf Moryson, Dr. Christoph Sklarczyk, Dipl.-Ing. Doreen Streicher. Gefördert durch das Ministerium für Wirtschaft und Wissenschaft des Das Familienunternehmen VOIT zählt zu den 20 größten Arbeitgebern im Saarland. Als international agierender Systemlieferant für die Automobilindustrie beschäftigt der Unternehmensverbund am Hauptstandort St. Ingbert ca. 1.000, weltweit an 6 Produktionsstandorten ca. 1.800 Mitarbeiter. Entwickelt und gefertigt werden hochpräzise, kundenspezifische AluminiumDruckgussteile mit fertig bearbeiteten Funktionsflächen und Fertiggusstechnik sowie Module und Komponenten in Stanz-, Zieh-, Biegeroll- und Warmumformtechnologie. Rund 170 Mio. unserer Teile werden jährlich bei Audi, BMW, Mercedes, VW, Ford, Opel, Jaguar, Landrover ... in Funktionsteilen wie Triebwerk, Kraftstoffversorgung, Antriebsstrang, Abgassystem, Fahrwerk und Karosserie verbaut. Mindestens 50% aller Autos haben VOIT-Teile inside. Darüber hinaus engagiert sich VOIT zunehmend in technologischen Zukunftsfeldern wie z.B. Leichtbau mit Warmumformtechnik und Greentech, z.B. mit Komponenten für die Elektromobilität. www.voit.de facebook.com/WillyVoit WILLY VOIT GMBH & CO. KG Saarbrücker Straße 2 I 66386 St. Ingbert I Tel.: +49 68 94 909 -0 I [email protected] I [email protected] I Saarlandes (Förderkennzeichen 12/ 2010), 57 Seiten. 7 CURe MODERN, Projekthomepage: http://cure-modern.eu/ (abgerufen am 18. April 2013) B Zerstörungsfreie Prüfung und Qualitätssicherung Prof. Dr. Christian oller studierte Bauingenieurwesen an der Technischen Hochschule Darmstadt, wo er 1988 auch seine Promotion abschloss. Von 1981 bis 1986 arbeitete er dort als Wissenschaftlicher Mitarbeiter, unterbrochen von einem sechsmonatigen Stipendium am »Fatigue Testing Division of the National Research Institute for Metals (NRIM)« in Tokyo/ Japan. Von 1987 bis 1990 war er als Wissenschaftlicher Mitarbeiter beim Battelle-Institut e. V.in Frankfurt beschäftigt, danach als Entwicklungsingenieur im Bereich Flugzeugstruktur bei MBB/ Daimler-Benz Aerospace AG in Ottobrunn/München sowie als Mitglied in der Daimler-Benz Gruppe für Forschung und Technologietransfer in Stuttgart. Nach seiner Tätigkeit als Chefingenieur für Flugzeugstrukturen bei DaimlerChrysler Luft- und Raumfahrt (heute EADS) sowie der Übernahme einer Gastprofessur für Luft- und Raumfahrttechnik an der University of Sheffield/ UK war er dort bis 2008 Professor für Entwurf adaptiver Strukturen im Fachbereich Maschinenbau. Seit 2008 ist Professor Boller Inhaber des Lehrstuhls für zerstörungsfreie Materialprüfung und Qualitätssicherung der Universität des Saarlandes und Leiter des ›Fraunhofer Instituts Zerstörungsfreie Prüfverfahren‹ in Saarbrücken. Er ist Mitglied der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) im Projektkomitee ›Komponentenverhalten‹ und kooptiertes Mitglied bei der Deutschen Gesellschaft für Zerstörungsfreie Prüfung e. V. ebenso wie beim Canadian Institute for NDE sowie im wissenschaftlichen Beirat ›Werkstoffe und technische Systeme‹ der Bundesanstalt für Materialprüfung (BAM). Beim ›International Workshop on Structural Health Monitoring‹ in Stanford USA wurde er mit dem ›Lifetime Achievement Award‹ ausgezeichnet. 7 38 3 39 K Dr. Jochen H. urz studierte Geophysik an der Friedrich-Schiller Universität Jena (Diplom 2001) und beschäftigte sich dort mit FiniteElemente Modellierungen zu fluidinduzierten Erdbebenphänomenen. 2006 promovierte er am Institut für Werkstoffe im Bauwesen der Universität Stuttgart im Bereich zerstörungsfreie Prüfung (ZfP) im Bauwesen zur Untersuchung von Bruchprozessen mittels Schallemissionsanalyse. Seit 2006 ist er Mitarbeiter am Fraunhofer IZFP in Saarbrücken. Er ist dort Teamleiter der Gruppe Lebensdauermanagement. Die aktuellen Arbeitsschwerpunkte liegen im Bereich ZfP im Bauwesen und der Verknüpfung von ZfP und schädigungsmechanischer Bewertung. Die Entwicklung von ZfP basierter Lebensdauerbewertungssoftware insbesondere für Erdöl- und Erdgaspipelines und automatisierten Multi-Sensor Anwendungen für den Bereich ZfP im Bauwesen stellen weitere Arbeitsschwerpunkte dar. Er ist Vertreter des Fraunhofer IZFP in der Fraunhofer Allianz Bau, stellvertretender Vorsitzender des Fachausschusses Bau der Deutschen Gesellschaft für Zerstörungsfreie Prüfung (DGZfP) und Leiter der COST Working Group »Monitoring of Timber Structures« im COST FP 1101. urznachrichten aus der Forschung ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ Fluorid reduziert Haftkraft von Bakterien an Zähnen Regelmäßiges Zähneputzen mit fluoridhaltiger Zahnpasta härtet den Zahn ab und schützt vor Bakterien. Die Physikerin Professor Karin Jacobs hat jetzt herausgefunden, dass Fluorid die Kraft beeinflusst, mit der sich Bakterien an Oberflächen anhaften. Zucker ist nach wie vor einer der Hauptverursacher von Löchern in den Zähnen. Die Bakterien im Mund bauen die Zuckerverbindungen ab und setzen dabei Säuren frei, die den Zahnschmelz angreifen. Vorbeugend hilft hier nur regelmäßiges Zähneputzen mit fluoridhaltiger Zahnpasta. Das darin enthaltene Fluorid verbindet sich mit dem Zahnmaterial, dem Hydroxylapatit (HAP), und bildet unter anderem Fluorapatit (FAP), das weniger säurelöslich ist als das HAP und so den Zahn vor Säureangriffen durch die Mikroben schützt. In einer jedem Fall, dass Fluorid bakterielle Haftkräfte generell zu schwächen scheint.« Der Effekt, dass Fluorid bakterielle Haftkräfte schwächt, könnte vielleicht schon bald helfen, bessere Zahnfüllungen, Zahnersatz und medizinische Implantate zu entwickeln. Die Studie, die im Rahmen des Seite 4ff vorgestellten SFB 1027 »Physikalische Modellierung von Nichtgleichgewichtsprozessen in biologischen Systemen« entstanden ist, wurde im renommierten Journal Langmuir veröffentlicht: http://dx.doi. org/10.1021/la4008558 Internationales Forschungsschaufenster Mit maßgeschneiderten Lösungen aus der Forschung hat das Saarland auch in diesem Jahr auf der Hannover Messe auf sich aufmerksam gemacht. Zwei der Exponate, die – organisiert von der Kontaktstelle für Wissensund Technologietransfer (KWT) – auf dem saarländischen Forschungsstand vorgestellt wurden, stehen beispielhaft das an der Saar-Universität vorhandene ingenieurwissenschaftliche Know-how. Reibungsfrei und intelligent — Schwebende Metallplatte zeigt, was Magnetlager können Saarbrücker Forscher um Physik-Professorin Karin Jacobs haben herausgefunden, dass Fluorid hilft, die Haftkraft von Bakterien zu reduzieren. Foto: © apops – Fotolia. neuen Studie hat das Team um Professorin Jacobs zusammen mit Mikrobiologen des benachbarten Universitätsklinikums Homburg untersucht, welche Rolle die dünne Fluoridschicht bei der Interaktion zwischen Bakterien und Zahnoberfläche spielt. Dafür verwendeten die Forscher eigens hergestellte Hydroxylapatit-Plättchen, die dem Zahnschmelz in der Zusammensetzung zwar ähneln, aber eine sehr glatte Oberfläche aufweisen und daher gut geeignet sind für die hochauflösenden Analysemethoden. Mit Hilfe der Rasterkraftmikroskopie wurde die Haftkraft verschiedener Bakterienarten bestimmt, darunter zwei Karieserreger (Streptococcus mutans, Streptococcus oralis). Die Untersuchungen haben gezeigt, dass die untersuchten Mikroorganismen an den Oberflächen, die mit Fluorid behandelt worden sind, nur halb so stark haften blieben wie an den unbehandelten Oberflächen. Ob dieses im Labor erzielte Ergebnis auch in der Mundhöhle Bestand hat, wird noch untersucht. »Interessant ist in Wo sich etwas bewegen oder drehen soll, verringern so genannte Lager die Reibung – wie beim Auto zwischen Rad und Achse. Ein neuartiges Magnetlager, das nicht nur ganz ohne Reibung auskommt, sondern intelligent und selbstständig Störungen abschätzt und ausgleicht, haben Saarbrücker Forscher um Professor Joachim Rudolph entwickelt. Kugellager ohne Kugeln? Das ist möglich: Magnetlager heißt die Alternative, die komplett ohne Reibung und Wartung auskommt. Damit ist diese Methode klar im Vorteil, denn herkömmliche Lager verringern die Reibung und müssen zeitaufwändig instand gehalten werden. An intelligenten Magnetlagern, die Lagerungen aller Art ersetzen können, arbeiten Ingenieure im Team von Professor Joachim Rudolph. Ein intelligentes Beispiel für ein Magnetlager haben die Regelungstechniker auf der Hannover Messe vorgestellt: eine schwebende Metallplatte, die mit viel Ballgefühl einen Tischtennisball hüpfen lässt. Einen solchen mehrmals auf einem Schläger auftippen zu lassen, erfordert auch beim Menschen einiges an Geschick. Die rund fünf Kilogramm schwere Metallplatte, die Professor Rudolph und Lothar Kiltz in Hannover vorgestellt haben, wird von vier Elektromagneten frei beweglich in der Schwebe gehalten. Das macht eine reibungsfreie Bewegung möglich, ein mechanisches Lager wird ersetzt. Ihr besonderes »Talent« zeigt die Platte, wenn sie gestört wird. Fällt etwa ein Tischtennisball auf sie, müsste sie eigentlich empfindlich aus dem Gleichgewicht geraten und kippen. Die schwebende Metallplatte jedoch hält nicht nur die Balance, sondern kommt dem Ball beim nächsten Aufschlag entgegen und versetzt ihm einen passenden Stoß, damit er weiterhin gleichmäßig springt. urznachrichten aus der Forschung ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ Was beim Menschen, der den Tischtennisball balanciert, vom Gehirn gesteuert wird, übernimmt bei der schwebenden Metallplatte eine Steuerungseinheit. Das besondere Know-how des neuen Verfahrens liegt in der Koordination. Es genügt dem System, die Position der Platte und die Ströme in den Magnetspulen zu messen, um den Aufprall des Balls zu erkennen. Weitere Sensoren sind nicht erforderlich. Neue hochleistungsfähige Algorithmen berechnen innerhalb weniger Mikrosekunden, wie die Elektromagneten die Stöße abfangen könDie fünf Kilogramm schwere Metallplatte nen. Gleichzeitig leitet (unten im Bild) schwebt frei im Feld von vier das System anhand Elektromagneten. Der Wissenschaftliche der wenigen gemesseMitarbeiter Lothar Kiltz zeigt, dass ein Tischnen Signale ab, was als tennisball sie nicht aus der Balance bringt: nächstes passiert – es Das intelligente Magnetlager zeigt Ballgefühl, schätzt, wann der nächgleicht die Störung aus und die Platte versetzt ste Aufprall erfolgt und dem Ball Stöße, damit er gleichmäßig auftippt. berechnet, wie diesem Foto: Oliver Dietze zu begegnen ist. Schon bevor der Ball wieder auftippt, weist es die Elektromagnete vorausschauend und genau an, wie sie zu reagieren haben: Die Platte ist bereit, ihm im rechten Augenblick einen angemessenen Stoß zu versetzen. Was auf den ersten Blick spielerisch wirkt, demonstriert handfeste Ingenieurleistung: Die Saarbrücker Regelungstechniker um Professor Rudolph entwickeln modellbasierte Algorithmen für ultraschnelle Präzisionsregelung. Drähte, an denen an der Saar-Universität die Teams der Professoren Stefan Seelecke und Joachim Rudolph forschen. Sie nutzen dabei die besonderen Eigenschaften von Drähten aus der Legierung Nickel-Titan (kurz NiTi). Diese Drähte besitzen ein Formgedächtnis: Werden die Drähte erwärmt, etwa indem ein elektrischer Strom durch sie fließt, ziehen sie sich zusammen und werden deutlich kürzer. Wird der Strom abgeschaltet, kühlen sie ab und werden wieder so lang wie zuvor. Diese Eigenschaften der NiTi-Legierung, die sie von gewöhnlichen Metallen unterscheidet, beruhen auf so genannten Phasenumwandlungen: Wird der Draht warm, wandelt sich seine Gitterstruktur um, was Auswirkungen auf seine Form hat. Am Lehrstuhl für Unkonventionelle Aktorik bringt Professor Stefan Seelecke mit den Formgedächtnis-Drähten verschiedenste technische Bauteile in Bewegung. Die haarfeinen Drähte können auch schwere Gewichte heben, wenn sie unter Strom stehen. Mithilfe einer ausgeklügelten Steuerung lassen sich im Zusammenspiel mehrerer Drähte ganze Bewegungsabläufe nach festgelegter Choreographie ausführen. Dies demonstrieren die Forscher an Modellfledermäusen, denen sie Drähte als künstliche Muskeln verliehen haben, die die Flügelbewegungen echter Fledermäuse exakt nachahmen: ein Projekt, das Seelecke und sein Team für das North Carolina Museum of Natural Sciences bearbeitet haben, wo der Flügelschlag jetzt naturgetreu beobachtet werden kann. Eine weitere Anwendung findet die Technik in einem Inhalator, der Wirkstoffe zielgenau an den Wirkort in der Kurznachrichten Intelligente Drähte mit Gedächtnis bewegen Bauteile wie künstliche Muskeln 7 40 3 41 So genannte Formgedächtnis-Drähte können Fledermaus-Modelle mit naturgetreuem Flügelschlag zum »Leben erwecken«, Inhalationsgeräte so steuern, dass Wirkstoffe exakt am Wirkort landen oder große Lasten geräuschlos heben und senken. Die Forschergruppen um die Professoren Stefan Seelecke und Joachim Rudolph arbeiten gemeinsam an neuen Methoden, um technische Bauteile präzise zu bewegen. Die Muskeln des Menschen reagieren auf Nervenimpulse, indem sie sich zusammenziehen. In der Entspannungsphase nehmen sie wieder ihre ursprüngliche Form an. Durch dieses Zusammenspiel von Nervensystem und An- und Entspannung der Muskulatur kann der Mensch Bewegungen steuern. Nach ähnlichem Prinzip funktionieren die »intelligenten« Nicole Lewis demonstriert naturgetreue Flügelbewegungen an einer Modellfledermaus. Foto: UdS Lunge bringt. Forschungen haben ergeben, dass Wirkstoffteilchen an bestimmten Stellen der Lunge landen, je nachdem wo genau sie aus dem Mundstück des Inhalators eingeatmet werden. Mit intelligenten Drähten kann ein Röhrchen im Mundstück genau in Position gebracht werden, so dass dieses »Wirkstoff-Geschütz« seine Ladung gezielt in die Lunge »schießen« kann. urznachrichten aus der Forschung ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ Saarbrücker Ingenieure entwickeln ein neuartiges Verfahren, das vorwarnt, wann Rohre, mit denen Erdöl oder Gas gefördert wird, ausgetauscht werden müssen. Dabei können sie genau erkennen, welches der einzelnen Rohre in der oft Hunderte Meter langen Leitung betroffen ist, die meist im Meer oder tief in der Erde steckt. Ihre Technik haben sie sie zur Hannover Messe vom 8. bis 12. April auf dem saarländischen Forschungsstand vorgestellt. Rohre, mit denen Öl, Gas oder sonstiges aus der Tiefe gefördert wird, sind großen Belastungen ausgesetzt. Scharfkantige Steine und Geröll, die unvermeidlich mitgerissen werden, schlagen an die Innenwände. Sand und chemische Stoffe setzen dem Material zu, plötzliche Druckunterschiede und Luft- oder Gasblasen sorgen zusätzlich für Strapazen. Daher verschleißen die Rohre nach einer Zeit – ohne, dass vorhergesagt werden könnte, wann genau bei welchem Rohr es soweit ist, da die aneinandergereihten, je zehn Meter langen Steigleitungen mal hier, mal da besondere Schläge einstekken. Einfach nachschauen können die Ingenieure vor Ort nicht ohne weiteres – die teils Hunderte von Metern langen Rohrleitungen liegen unter Wasser oder stecken im Erdreich. Durch den Einsatz eines »Piezo-Stapelaktors«, der in bestimmten Intervallen und An einer Lösung dieses Dilemmas arbeitet eine Forschergruppe unter Federführung des Saarbrücker AktorikSpezialisten Professor Stefan Seelecke. Die Wissenschaftler entwickeln ein Verfahren, das dort sitzt, wo es mit in die Tiefe kann: am Rohr, oder, genauer gesagt, in der Muffe, die Rohr mit Rohr unterbrechungsfrei verbindet. Der Clou des Verfahrens erinnert an den alten Western-Trick, mit einem Ohr an der Schiene zu lauschen, ob ein Zug kommt. – Nur, dass hier »gelauscht« wird, ob die Rohrwand noch dick genug ist. Die Forscher setzen in die Muffe am einen Ende des Rohres einen so genannten »Piezo-Stapelaktor« ein, der ein Signal in bestimmten Intervallen und Frequenzen ins Material des Rohres sendet. In der Muffe am anderen Rohrende sitzt ein so genannter »Piezo-Flächenaktor«, der »lauscht«, wann und wie diese Signale ankommen. Diese Information leitet der Aktor an eine zentrale Stelle weiter – ganz so, als würde der an den Schienen Lauschende die Hand heben, und ein Komplize würde dies notieren. Sein technisches Pendant sammelt die gemessenen Daten, übersetzt sie mittels komplexer Algorithmen, wertet sie aus und macht sie blitzschnell sichtbar, indem es sie in ein Kurvendiagramm überträgt. Die Saarbrücker Wissenschaftler haben in Experimenten erforscht, wie sich der Zustand des Rohrs zu den Messungen des »lauschenden« Aktors verhält. Ihr Ergebnis: Je dünner die Wandstärke der Rohre ist, desto mehr verschiebt sich die Reaktion des Rohres auf eine bestimmte SchwingungsAnregung. Bei welcher Frequenz dieses Signal aufgefangen wird, sagt also zuverlässig aus, wie dick die Rohrwand noch ist. Derzeit entwickeln die Ingenieure mathematische Modelle, in denen die einzelnen Signale genau den verschiedenen Rohr-Abnutzungsgraden zugeordnet werden, was sie wiederum durch Experimente nachprüfen und belegen. Auf diese Weise könnte künftig vor Ort in der Tiefsee regelmäßig und auf Knopfdruck das Signal in den Rohrleitungen »offshore« erlauscht werden. Die so gemessenen Daten würden zuverlässig darüber Auskunft geben, wann eines der Rohre gefährlich dünn und damit reif zur Auswechslung geworden ist. Abgelesen werden könnte diese Vorwarnung an Diagrammen, die anzeigen, bei welcher Signalfrequenz es kritisch wird. Da die einzelnen Piezoaktoren miteinander in einem so genannten Bussystem kommunizieren und verbunden sind, kann außerdem genau gesagt werden, welches der Rohrstücke abgenutzte Wände hat. Wenn die Arbeiter Glück haben, ist ein Rohr oben betroffen und sie müssen nicht alles heraufholen, was viel Zeit und Kosten spart. Professor Seelecke wird in der nächsten Ausgabe von magazin forschung über seine Forschungsarbeit berichten. Kurznachrichten Forscher »erlauschen« Rohrverschleiß Frequenzen Signale in das Material des Rohres sendet, können Rohrleitungen überprüft werden. Exakt zu lokalisierende Schadstellen können gezielt freigelegt und beseitigt werden. Foto: © phokrates – Fotolia. 7 42 3 43 hardware software it-service Innovativ. Engagiert. Weltweit. Seit mehr als 30 Jahren entwickelt URSAPHARM innovative, pharmazeutische Konzepte und setzt diese in erfolgreiche Arzneimittel und Medizinprodukte für die Augenheilkunde und Allgemeinmedizin um – zum Wohl der Patienten auf der ganzen Welt. www.ursapharm.de URSAPHARM Arzneimittel GmbH, Industriestraße 35, 66129 Saarbrücken, www.ursapharm.de