Proceedings online - ÖGBMT

Transcription

Proceedings online - ÖGBMT
UMIT - Lecture Notes in Biomedical
Computer Science and Mechatronics
Volume 4
University for
Health Sciences,
Medical Informatics
and Technology
Tagungsband zur
ÖGBMTJahrestagung 2014
Christian Baumgartner, Winfried Mayr (Hrsg.)
ISBN: 978-3-9503191-3-2
Sept. 2014, Hall in Tirol
UMIT - Lecture Notes in Biomedical
Computer Science and Mechatronics
Volume 4
Series Editor:
Department für Biomedizinische Informatik und Mechatronik
Christian Baumgartner, Winfried Mayr
Herausgeber
Tagungsband zur
ÖGBMTJahrestagung 2014
Univ.-Prof. DI Dr. Christian Baumgartner
Institut für Elektrotechnik und Biomedizinische Technik
Department für Biomedizinische Informatik und Mechatronik
UMIT - Private Universität für Gesundheitswissenschaften,
Medizinische Informatik und Technik
6060 Hall in Tirol, Österreich
Univ.-Prof. DI DDr. Winfried Mayr
Institut für Biomedizinische Technik und Physik
Medizinische Universität Wien
Währinger Gürtel 18 -20
1090 Wien, Österreich
UMIT- Lecture Notes in Biomedical Computer Science and Mechatronics
ISBN: 978-3-9503191-3-2
© 2014 Institut für Elektrotechnik und Biomedizinische Technik (IEBE), UMIT, Hall in Tirol
Umschlaggestaltung: IEBE, Theresa Rienmüller
Layout: IEBE, Theresa Rienmüller
Druck und Bindung: druck.at
This work is subject to copyright. All rights are reserved, whether the whole or part of the
material is concerned, specifically the rights of translation, reprinting, reuse of illustrations,
recitation, broadcasting, reproduction on microfilm or in any other way, and storage in data
banks.
Vorwort
Sehr geehrte Tagungsteilnehmerinnen,
sehr geehrte Tagungsteilnehmer,
nach zwei Jahren heißen wir Sie wieder zur Jahrestagung der Österreichischen Gesellschaft für
Biomedizinische Technik (ÖGBMT) an der Privaten Universität für Gesundheitswissenschaften,
Medizinische Informatik und Technik (UMIT) in Hall in Tirol herzlich willkommen. Gemeinsam mit der
Standortagentur Tirol haben wir für Sie diese Zwei-Tages-Veranstaltung organisiert. Schwerpunkte der
wissenschaftlichen Sitzungen umfassen die Bereiche biomedizinische Bild- und Signal- verarbeitung,
Bioinformatik, Modellbildung und Simulation des Herzen, Medical Devices und klinische Anwendungen,
Health Care Technology u. a. Für die besten Masterarbeiten und Dissertationen werden im Rahmen des
Studierendenwettbewerbes Preise von der Fachgesellschaft vergeben, die die hervorragenden Leistungen
und die hohe Qualität der verfassten Arbeiten unseres wissenschaftlichen Nachwuchses würdigen.
Unter dem Motto „Faszination Medizin und Technik: Angreifen - Ausprobieren - Staunen - Lernen”
werden die Tagungsteilnehmer und die Bevölkerung die Möglichkeit haben, im Rahmen der
Medizintechnik-Schau „zum Anfassen” in der Burg Hasegg/Münze Hall Forschungseinrichtungen und
Medizintechnikunternehmen und deren jeweilige Forschungsprojekte, Produkte und Dienstleistungen
näher kennenzulernen. Für Kinder und Jugendliche finden erstmals Medtech 4 Kids-Workshops
(„Kinder-Uni”) zu spannenden Themen aus der Medizintechnik statt. Dieses Programm wird ergänzt
durch FI(M)T Workshops (Frauen in die Medizintechnik), die speziell an junge Frauen gerichtet sind.
Im Besonderen bedanken wir uns beim Land Tirol und der UMIT für die finanzielle Unterstützung dieser
Jahrestagung. Im Namen der ÖGBMT, der Standortagentur Tirol und der UMIT wünschen wir Ihnen somit
einen spannenden, abwechslungsreichen und inspirierenden Aufenthalt bei der ÖGBMT Jahrestagung und
dem Tiroler Medizintechnikforum 2014!
Univ.-Prof. Dr. Christian Baumgartner
Univ.-Prof. DDr. Winfried Mayr
Hall in Tirol, am 18.09.2014
Inhaltsverzeichnis/Table of Contents
Session 1: „Biomedizinische Bild- und Signalverarbeitung“
ELASTISCHE CT – CONE-BEAM CT REGISTRIERUNG ALS BASIS FÜR DIE
BILDBASIERTE ANALYSE DER BESTRAHLUNGSQUALITÄT
P. Raudaschl, R. Schubert, P. Eichberger, P. Lukas
13
NON-INVASIVE QUANTIFICATION OF MYOCARDIAL BLOOD FLOW FOR
THE DIAGNOSIS OF CAD USING DYNAMIC CT
T. Rienmüller, M. Handler, M. Toifl, C. Baumgartner, R. Rienmüller
15
VALIDATION OF JOINT RESTORATION OF BI-CONTRAST MRI DATA FOR
INTENSITY NON-UNIFORMITIES
S. Hadjidemetriou, R. Schubert
17
QUALITÄTSBETRACHTUNG DER WAVELET- UND RMS ANALYSE IN ABHÄNGIGKEIT DER AUFNAHMEFREQUENZ VON EMG SIGNALEN
L. Wiedemann, T. Haftner, B. Pobatschnig, M. Faulhuber, M. Reichel
19
GRUNDFREQUENZBESTIMMUNG IN SPRACHSIGNALEN DURCH ADAPTIVE
KREUZKORRELATION
M. Staudacher, V. Steixner, A. Griessner, C. Zierhofer
21
VALIDATION OF A FLEXIBLE OPTIMAL CONTROL APPROACH
RF-PULSE-DESIGN INCLUDING RELAXATION EFFECTS AND SAR
C. S. Aigner, C. Clason, A. Rund R. Stollberger
23
FOR
Session 2: „Studierendenwettbewerb Teil 1“
VIRTUAL REALITY IN DER TELE-NEUROREHABILITATION
M. Kaindl
27
eBALANCE - DEVELOPMENT AND USABILITY EVALUATION OF A COMPUTER
GAME FOR REHABILITATIVE TRAINING
J. Flandorfer
29
ROBOTERUNTERSTÜTZTE MEDIKATION ÄLTERER PERSONEN IM HÄUSLICHEN UMFELD
M. Schweitzer, A. Hoerbst
31
QUANTITATIVE MEASUREMENT OF LEFT VENTRICULAR MYOCARDIAL PERFUSION BASED ON DYNAMIC CT SCANS
M. Toifl
33
KRAFTAUFTEILUNG DER QUADRIZEPSMUSKULATUR BEI ISOKINETISCHEM
TRAINING AN DER BEINPRESSE - SIMULATIONSSTUDIE MIT OPENSIM
G. Schneider, M. Krenn, J. Cvecka, M. Sedliak, S. Loefler, H. Kern, W. Mayr
35
7
Inhaltsverzeichnis/Table of Contents
Session 3: „Studierendenwettbewerb Teil 2“
COMPLIANCE MONITORING FÜR DAS ELEKTROSTIMULATIONS-TRAINING IN
DER HEIMTHERAPIE
M. Hendling, M. Krenn, M. Haller, S. Loefler, H. Kern, W. Mayr
39
SELEKTIVITÄT DER TRANSKUTANEN ELEKTROSTIMULATION DER LUMBALEN HINTERWURZELN BEI VERÄNDERUNG DER STIMULATIONSHÖHE
A. Toth, M. Krenn, S.M. Danner, U.S. Hofstoetter, K. Minassian, W. Mayr
41
PREVENTING FALLS: MISSION POSSIBLE! AN ICT APPROACH TO ASSESS
FALL RISK IN OLDER PEOPLE
Andreas Ejupi
43
SIMULATION AND EVALUATION OF THE CRYOABLATION PROCEDURE
FOR TREATMENT OPTIMIZATION OF CARDIAC ARRHYTHMIAS
Michael Handler
45
BIG DATA IM KRANKENHAUS - RAHMENKONZEPT UND ARCHITEKTUR FÜR
DIE SEKUNDÄRNUTZUNG KLINISCHER ROUTINEDATEN
W.O. Hackl, E. Ammenwerth
47
Session 4/5: „Minisymposium Modellbildung und Simulation des Herzens“
MULTISCALE MULTIPHYSICS MODELING OF TOTAL CARDIAC FUNCTION:
FROM BASIC SCIENCE TO CLINICAL APPLICATIONS
C. Augustin, C. Costa, F. Campos, A. Crozier, A. Neic, A.J. Prassl, E. Hofer,
G. Plank
51
INFLUENCE OF VARIATIONS IN THE ANGLE OF DIFFERENT EXCITATION
DIRECTIONS IN ISOTROPIC CARDIOMYOCYTE MONOLAYERS
R. Kienast, M. Stöger, M. Handler, F. Hanser, C. Baumgartner
53
SIMULATING EFFECTS OF INCREASED HEAT TRANSFER SURFACES BETWEEN APPLICATOR TIP AND REFRIGERANT IN CARDIAC CRYOABLATION
M. Handler G. Fischer, R. Kienast, C. Baumgartner
55
8
Inhaltsverzeichnis/Table of Contents
Session 6: „Health Care Technology und Biomedizinische Informatik“
HYBRID MODELING – A NEW PROSPECT FOR HEALTHCARE SYSTEMS
SIMULATIONS
W. Siegl, A. Lassnig, J. Schröttner
59
INTEGRATED CARE IN HEART FAILURE TREATMENT – A MODELLING SETUP
COMBINING ESTABLISHED CONCEPTS
A. Lassnig, W. Siegl, J. Schröttner
61
HerzMobil TIROL — mHealth TELEMONITORING EINGEBETTET IN EIN
HERZINSUFFIZENZ-NETZWERK
S. Welte, P. Kastner, G. Pölzl, A. von der Heidt, R. Modre-Osprian
63
A COMBINED APPROACH FOR SIMILARITY SEARCH AND ANALYSIS IN
BIOCHEMICAL MOLECULAR DATABASES
M. Popovscaia, C. Baumgartner
65
INTEGRATION OF NGS DATA AND IMAGES OF TISSUE SECTIONS
FOR PERSONALIZED ONCOLOGY
M. Baldauf, A. Dander, M. Sperk, S. Pabinger, Z. Trajanoski
67
Session 7: „Medical Devices und Anwendungen“
MRI SAFETY OF DEEP BRAIN STIMULATOR PATIENTS
A. Tilp, N. Leitgeb
71
EFFECTS OF FINE STRUCTURE STIMULATION ON PITCH PERCEPTION
A. Krenmayr, V. Steixner, R. Schatzer, M. Staudacher, A. Griessner, C. Zierhofer
73
LABORTESTUNG EINES IMPLANTIERBAREN TELEMETRIESYSTEMS FÜR
CHRONISCHE EMG-AUFNAHMEN IM LANGZEITEXPERIMENT
L. Kneisz, E. Unger, H. Lanmüller, W. Mayr
75
ZUSAMMENLEGUNG VON INSULINGABE UND GLUKOSEMESSUNG IM FETTGEWEBE ZUR VERBESSERUNG DER THERAPIE VON DIABETES
M. Tschaikner, M. Jungklaus, B. Lehki, M. Ellmerer, H. Scharfetter, T. Pieber,
W. Regittnig
77
9
10
„Biomedizinische Bild- und Signalverarbeitung“
11
12
ELASTISCHE CT – CONE-BEAM CT REGISTRIERUNG ALS BASIS FÜR
DIE BILDBASIERTE ANALYSE DER BESTRAHLUNGSQUALITÄT
P. Raudaschl1, R. Schubert1, P. Eichberger2, P. Lukas2
1
Institut für Biomedizinische Bildanalyse, UMIT, Österreich
2
Universitätsklinik für Strahlentherapie u. Radioonkologie, Medizinische Universität Innsbruck
[email protected]
Abstract Das Auftreten strahleninduzierter Sekundärmalignome hängt stark von der Bestrahlungsdosis
und deren Verteilung ab. Um die geplante Bestrahlung mit der tatsächlich applizierten Bestrahlung vergleichen zu können, müssen Planungs-CT und Verifikations-CBCT aufeinander registriert werden. In
dieser Arbeit wird eine dafür entwickelte Registrierungspipeline vorgestellt, die aus mehreren Vorverarbeitungsschritten und einer elastischen Hauptregistrierung besteht.
Die Grundlage für diese Analysen ist eine exakte
Bildregistrierung zwischen pCT und CBCTs. Aufgrund der unterschiedlichen Charakteristika der Bilddaten sind mehrere Vorverarbeitungsschritte nötig:
1. Histogramm-basierte Intensitätsanpassung zwischen pCT und CBCT (siehe Abb. 1)
2. Median Filterung des CBCT zur Unterdrückung
von hochfrequentem Bildrauschen
3. Rigide, intensitätsbasierte Vorregistrierung
Keywords Strahlentherapie, Sekundärmalignom,
elastische Registrierung, Mutual Information, CBCT
Einleitung
Krebs ist die zweithäufigste Todesursache in Österreich und es ist zu erwarten, dass die Zahl der Betroffenen an Krebs erkrankter Menschen in Zukunft
ansteigen wird. Deshalb ist die Verbesserung der
Krebstherapie von größter Bedeutung.
Vor Allem auf dem Gebiet der Bestrahlungstherapie
gibt es kontinuierlich Weiterentwicklungen. Neuartige
Bestrahlungstechnologien wie IMRT und VMAT in
Kombination mit einer detaillierten Bestrahlungsplanung ermöglichen eine effektive und zielgerichtete
Bestrahlung des Tumors. Der Nachteil dieser neuen
Bestrahlungstechnologien ist jedoch, dass ein größeres Volumen des Körpers mit einer minimalen Strahlendosis belastet wird. Verschiedene Studien kamen
zum Schluss, dass das Auftreten eines strahleninduzierten Sekundärmalignoms stark von der Bestrahlungsdosis und deren Verteilung abhängig ist [1-4].
Deshalb ist die quantitative und qualitative Analyse
der Bestrahlungsqualität sowie die Analyse der
Langzeitauswirkungen von Minimaldosisbelastungen
das Hauptziel des Oncotyrol Projekts SEMPER [5].
Folgend wird die dafür entwickelte CT – CBCT Registrierungspipeline vorgestellt, die die Basis für die
oben angeführten Analysen ist.
Abb. 1: Vergleich CBCT (links) u. pCT (rechts). Die
Intensitätsunterschiede sind deutlich erkennbar.
Nach diesen Vorverarbeitungsschritten wird die
Hauptregistrierung zwischen pCT und CBCT durchgeführt. Bei der CT – CBCT Registrierung werden
vorwiegend elastische Bildregistrierungsmethoden
angewendet [6, 7]. In dieser Arbeit wurde eine Variante des B-Spline Free Form Deformation Algorithmus adaptiert [8]. Als Metrik wurde die Mutual Information (MI) verwendet. Die Registrierung wurde mit
dem Limited memory Broyden-Fletcher-GoldfarbShanno (L-BFGS-B) Algorithmus optimiert.
Die Genauigkeit der Registrierung wurde einerseits
visuell bewertet, andererseits auch quantitativ analysiert. Der Korrelationskoeffizient zwischen rigide und
elastisch registriertem pCT mit dem CBCT wurde
berechnet. Zudem wurden drei verschiedene anatomische Strukturen in den Bilddaten segmentiert um
die Registrierungsgenauigkeit zu beurteilen (Femurkopf, Steißbein, Lendenwirbel L5). Dafür wurde der
Dice Koeffizient als Ähnlichkeitsmaß verwendet.
Für die Analysen stand ein Datensatz eines Patienten mit Prostatakarzinom zur Verfügung. Dieser bestand aus einem pCT und fünf Verifikations-CBCTs.
Für die Registrierung wurden die Bildverarbeitungsframeworks ITK [9] und Plastimatch [10] verwendet.
Zur Bearbeitung und Visualisierung der Bilder kamen
I-Presp [11] und Slicer [12] zur Anwendung.
Methoden
Die Bestrahlungsqualität wird durch Vergleich von
geplanter mit tatsächlich applizierter Bestrahlung
analysiert. Dies wird durch Vergleich von PlanungsCT Bilddaten (pCT) mit Cone-Beam CT Bilddaten
(CBCT), die unmittelbar vor der jeweiligen Bestrahlungssitzung akquiriert werden und den Bestrahlungsplanungsdaten, realisiert.
13
rung liefert, vor Allem im Vergleich mit einer rein rigiden Registrierung. Es ist zu erwarten, dass durch
eine HU-mapping basierte Intensitätsanpassung eine
weitere Erhöhung der Registrierungsgenauigkeit
erreicht werden kann. Durch Analysen mit mehreren
Datensätzen und weiteren anatomischen Strukturen
wird dieser Ansatz untersucht.
Ergebnisse
In Abb. 2 ist das Ergebnis der rein rigiden und der
elastischen Registrierung als Überlagerung zwischen
registriertem pCT und CBCT beispielhaft zu sehen.
Es ist zu erkennen, dass die elastische Registrierung
bei externen Konturen, knöchernen Strukturen und
Weichteilgewebe bessere Ergebnisse liefert.
Literatur
[1] Trott K.-R., Can we reduce the incidence of secondary primary malignancies occurring after radiotherapy?, Radioth. & Oncology, vol. 91, pp. 1-3,
2009
[2] Tubiana M., Can we reduce the incidence of secondary primary malignancies occurring after radiotherapy? A critical review., Radioth. & Oncology,
vol. 91, pp. 4-15, 2009
[3] Brenner D.J., Curtis R.E., Hall E.J., Ron E., Second malignancies in prostate carcinoma patients
after radiotherapy compared with surgery, Cancer, vol. 88, pp. 398–406, 2000
[4] Boice J.D., Jr, Day N.E., Anderson A., et al.: Second cancers following radiation treatment for cervical cancer: An international collaboration among
cancer registries, J Natl. Cancer Inst., vol. 74, pp955–975, 1985
[5] SEMPER: SEcondary Malignoma - Prospective
Evaluation of the Radiotherapeutic dose distribution as the cause for induction, Oncotyrol,
http://www.oncotyrol.at/forschung/forschungsproj
ekte/area-4-hta-and-bioinformatics/245/, 2014
[6] Lawson J.D., Schreibmann E., Jani A.B., Fox T.,
Quantitative evaluation of a cone-beam computed tomography-planning computed tomography
deformable image registration method for adaptive radiation therapy, J Appl. Clin. Med. Phys.,
vol. 8(4), pp. 96-113, 2007
[7] Hou J., Guerrero M., Chen W., D’Souza W.D.,
Deformable planning CT to cone-beam CT image
registration in head-and-neck cancer, Med. Phys.,
vol. 38(4), pp. 2088-2094, 2001
[8] Rueckert D., Sonoda LI, Hayes C., Hill D.L.,
Leach M.O., Hawkes D.J.., Non-rigid registration
using free-form deformations: application to
breast MR images, IEEE Trans. Med. Imaging,
vol. 18(8), pp. 712-21, 1999
[9] Kitware, Medical Image Segmentation and Registration With ITK - Overview: ITK Registration
Methods,
http://www.itk.org/CourseWare/Training/Registrati
onMethodsOverview.pdf, 2014
[10] Plastimatch, http://plastimatch.org, 2014
[11] Fritscher K., Development of a software framework for preprocessing and level-set segmentation of medical image data. Institute for Biomedical Image Analysis, UMIT, 2004
[12] Fedorov A. et al.: 3D Slicer as an Image Computing Platform for the Quantitative Imaging Network. Magn. Reson. Imaging., vol. 30(9), pp.
1323-41, November 2012
Abb. 2: Ergebnis der rigiden (links) und elastischen
(rechts) Registrierung als Überlagerung von registriertem pCT und CBCT. Rote Einfärbung entspricht dem Ausmaß des Registrierungsfehlers.
Die durchschnittliche Korrelation zwischen den fünf
CBCTs und dem elastisch registrierten pCT ist 0.891
(± 0.049). Die Korrelation liegt somit im Bereich der
als Referenz verwendeten CBCT-CBCT Selbstkorrelation mit einer 1mm translationalen Verschiebung in
alle Richtungen (0.923 ± 0.037 – siehe Tab. 1).
Tab. 1: Durchschnittlicher Korrelationskoeffizient (±
Standardabweichung) zwischen fünf CBCTs und
registriertem pCT. (o./m. I. – ohne/mit Intensitätsanpassung)
Registrierung
Nur rigid (o. I.)
Nur rigid (m. I.)
Rigid + elastisch
1mm Translation
Fixed
CBCT
CBCT
CBCT
CBCT
Moving
pCT
pCT
pCT
CBCT
Korrelation
0.824 ± 0.091
0.849 ± 0.087
0.891 ± 0.049
0.923 ± 0.037
In Tab. 2 ist der durchschnittliche Dice Koeffizient von
den verschiedenen extrahierten anatomischen Strukturen angeführt. Es ist daraus ersichtlich, dass die
elastische Registrierung mit rigider Vorregistrierung
bei allen Strukturen den höchsten Dice Koeffizienten
liefert.
Tab. 2: Durchschnittlicher Dice Koeffizient (± Standardabweichung) verschiedener anatomischer Strukturen aus registriertem pCT und fünf CBCTs.
Struktur
li. Femurkopf
Steißbein
Wirbel L5
li. Femurkopf
Steißbein
Wirbel L5
Registrierung
rigid
rigid
rigid
rigid+elastisch
rigid+elastisch
rigid+elastisch
Dice Koeffizient
0.758 ± 0.098
0.712 ± 0.078
0.695 ± 0.095
0.875 ± 0.062
0.854 ± 0.055
0.835 ± 0.059
Diskussion und Ausblick
Die Ergebnisse zeigen, dass die entwickelte Registrierungspipeline eine genaue CT-CBCT Registrie-
14
NON-INVASIVE QUANTIFICATION OF MYOCARDIAL BLOOD FLOW FOR
THE DIAGNOSIS OF CAD USING DYNAMIC CT
T. Rienmüller1, M. Handler1, M. Toifl1, R. Rienmüller2, C. Baumgartner1
1
Institute of Electrical and Biomedical Engineering, UMIT, Hall in Tirol, Austria
2
Bakulev Scientific Center of Cardiovascular Surgery, Moscow, Russia
[email protected]
Abstract ⎯ Multislice CT is considered an upcoming
technology for the non-invasive quantification of
myocardial blood flow in patients with Coronary Artery Disease (CAD). For this purpose, the heart of the
patient is imaged in 3D for several heart beats after
contrast agent administration. This approach requires
to define a specific workflow taking into account the
examination protocol, medical image processing to
register the 4D data sets as well as signal processing
of the obtained contrast enhancement-time-curves. In
addition to a methodology of how a perfusion workflow can be set up this work outlines challenges on
the way to the final quantitative perfusion result.
patient studies.
Method
Figure 1 shows the needed steps for the quantitative determination of MPF using dynamic CT scans
together with the required tasks.
Keywords⎯ Myocardial Perfusion 4D, CT-scans,
Medical Image Processing
Introduction
Hypoperfusion represents a major threat to the human heart. Indeed, insufficient oxygen supply of the
myocardial tissue may lead to cellular dysfunction
and have life threatening consequences. Thus, quantitative computation of myocardial perfusion (MPF) is
an essential prerequesite to provide specific diagnoses and take appropriate therapeutic management
(medication, surgery) in patients with CAD. In the
literature, different approaches and technologies to
estimate MPF are described such as Magnetic Resonance Imaging (MRI), Scintigraphic Methods or
Echocardio-graphy [1]. By the development of fast
multi-slice CT scanners, it has become possible to
quantitatively measure MPF using CT technology.
Static perfusion scans allow for a qualitative evaluation of MPF only and require an elaborate timing protocol in order to robustly assess the extent of a perfusion defect [2]. Quantitative determination of MPF, on
the other hand, necessitates the recording of volumetric CT data sets over several heartbeats (4D
data). In this context, the workflow from examination
protocol/image acquisition to the final quantitative
perfusion result comprises several challenges and
different aspects that need to be taken into account.
ECG-gating, for example, restricts the image acquisition to a specific cardiac phase which significantly reduces radiation dose and limits motion
artifacts. However, for an evaluation on a per voxel
basis, spatial misalignments that occur even in the
case of highly accurate prospective triggering,
reduce the accuracy of the quantitative analysis [3]. In this work we propose an entire MPF estimation workflow that bases on a detailed evaluation
of the specific tasks in phantom, animal as well as
Figure 1: MPF estimation workflow
Dynamic CT-scans The examination protocol comprises the application of contrast agent, scanning and
image reconstruction and processing. In a first step,
we performed a phantom study simulating perfusion
measurements over 30 seconds and 12 slices, confirming the general suitability of ECG-triggered scans
using a multi-row detector [4]. In a second phantom
study, we compared different reconstruction kernels
and iterative reconstruction (IR) approaches examining changes in absolute HU values and standard
deviations. Different aspects of contrast agent application (amount, concentration as well as injection
speed) were investigated in an animal study [5,6].
The obtained contrast enhancement time (CET) curves (see Fig. 2) were analyzed regarindg noise and
shape in order to obtain a suitable scan protocol
whilst minimizing the number of scans and thus radiation dose for the patient.
Medical Image Processing 4D data sets put high
demands on medical image processing: In the native/low contrast enhanced scans, the separation between myocardial tissue and ventricle is generally not
possible. We therefore developed a semi-automatic
segmentation process that incorporates temporal
variations of the HU values to distinguish different
cardiac areas in a preprocessing step and perform
the segmentation on the preprocessed data [3]. Even
in case of highly accurate ECG-gating and a stable
heart beat, spatial misalignments between different
time steps occur. For quantitative estimation of MPF
on a per voxel basis, the volumetric scans acquired at
each heart beat must be registered to each other.
The main challenge is the change in contrast enhan-
15
Figure 3: Boxplots of HU value distribution for different reconstruction modalities. IR methods lead to
significant noise reduction.
Figure 2: HU values with fitted CET curve
cement over time. We compared purely HU-value
based approaches to local phase based approaches
(see [7]) in order to overcome this problem.
Model-based MPF estimation We analyzed different model curves to approximate the raw HU data
(see Fig. 2) and implemented different deconvolution methods in order overcome beam hardening
artifacts due to high contrast enhancement in the
right ventricle and rather different shapes of the
CET curves depending on the health status as well
as physiological parameters (heart rate, blood
pressure). In a last step, we compared different
empirical and model-based approaches for quantitative estimation of MPF (see [1,8]).
found to be more reliable [1,8] and allow for an
automated MPF estimation.
Figure 4: MPF model
The results of an animal study based on this workflow were compared to previous data obtained by
Electron Beam Computed Tomography (EBCT)
and show similar results [5].
Conclusion
This work proposes an image and signal processing
framework spanning from the image acquisition and
examination protocol to the final voxel based quantitative myocardial perfusion estimation. Several tasks
that need to be considered during this process were
assessed by different phantom und animal studies. In
the next step, different models for specific diseases of
the human heart will be assessed in more detail.
Results – Final Perfusion Estimation Approach
After a detailed evaluation of different approaches in
all necessary processing stages, we finally propose
the following examination protocol for the quanitative
estimation of MPF:
Generation of 4D image data sets Based on the
evaluation of CET curves (animal/human studies), we
propose to perform at least three scans before the
contrast agent bolus enters the left ventricle (LV) in
order to obtain a reliable base line (see Fig. 2). The
number of needed total scans depends mainly on the
heart rate of the patient which will be registered simultaneously. Generally, it should not be lower than
30 scans in order to robustly estimate the wash-out of
contrast media. The amount of contrast media is
calculated individually based on the patients weight in
order to minimize the dose and thus beam hardening
artifacts. To prevent the bolus to tear apart, a constant injection rate of 4 ml/s is ensured using an automated injector. Based on comparison of phantom
data/animal studies, our perfusion framework relies
on iterative CT reconstruction (IR) algorithms, since
for perfusion estimation on a per voxel basis, the
signal to noise ratio is too low using filtered back
projection (FBP) reconstruction only (see Fig. 3).
Medical Image Processing For the estimation of
global MPF, we semi-automatically segment the
myocardial tissue based on temporal variations of the
HU-values. In order to enable MPF estimation on a
per voxel basis and include the borders of the tissue,
the images must be well registered. We implemented
a local phase based algorithm enabling the registration of images with different contrast enhancement [7].
Model-based MPF Systems theoretic approaches
that compute the transfer function between the CET
curve of the LV and the myocardium (Fig. 4) were
Acknowledgements
Supported by the Science Fund Tirol (TWF).
References
[1] Toifl, M. (2014). Quantitative Estimation of Left Ventricular
Myocardial Perfusion Using Contrast Agent Computed
Tomography. Master’s Thesis. UMIT 2014.
[2] Ho, K.-T., Chua, K.-C., Klotz, E., & Panknin, C. (2010).
Stress and Rest Dynamic Myocardial Perfusion Imaging by
Evaluation of Complete Time-Attenuation Curves With DualSource CT. JACC: CARDIOVASCULAR IMAGING , 3 (8), 811820.
[3] Isola, A. A., Schmitt, H., van Stevendall, et al. (2011). Image
Registration and Analysis for Quantitative Myocardial Perfusion:
Application to Dynamic Circular Cardiac CT. Physics in
Medicine and Biology , 56 (18), 5925-5947.
[4] Handler, M., Rienmüller, T., Ourednicek, P., et al. (2013).
Assessment of HU-value stability in dynamic CT-scans for
quantitative estimation of myocardial perfusion. European
Congress of Radiology (ECR 2013). Wien.
[5] Makarenko, V., Rienmüller, T., Handler, M., et al. (2013).
Feasibility of rotational 256 row CT in measuring myocardial
perfusion in anaesthetized dogs. European Congress of
Radiology (ECR 2013), EPOS. Wien.
[6] Rienmüller, T., Handler, M., Ourednicek, P., et al. (2013).
Contrast agent concentration of 180-210 mgI/ml allows for
quantitative estimation of myocardial perfusion in dogs.
European Congress of Radiology (ECR 2013), EPOS. Wien.
[7] Janssens, G., Jacques, L., Jonathan Orban, d. X., et al.
(2011). Diffeomorphic Registration of Images with Variable
Contrast Enhancement. International Journal of Biomedical
Imaging, 1-16.
[8] Rienmüller, T., Baumgartner, C., Handler, M., et al. (2013).
Quantitative estimation of left ventricular myocardial perfusion
based on dynamic CT scans. BMT 2013. Graz.
16
VALIDATION OF JOINT RESTORATION OF BI-CONTRAST MRI DATA
FOR INTENSITY NON-UNIFORMITIES
Stathis Hadjidemetriou and Rainer Schubert
Institute of Biomedical Image Analysis (IBIA), UMIT, A-6060 Hall in Tirol, Austria
[email protected]
lated non-uniformities of levels B=40%-60%-80%100% and noise of levels N=3%-5%.
Intensity restoration: The data are two 3D coregistered images Ii(x), i=0,1. They correspond to
different assumed multiplicative non-uniformity
fields Bi, i=0,1, corrupting underlying anatomic
images IA,i, i=0,1, respectively. Each image is also
corrupted by Rayleigh noise, Ni, to give
Ii=Bi◦IA,i+Ni, i=0,1, where ◦ is the voxelwise Hadamard product. The statistics are the intensity cooccurrences Cij of intensities u0 and u1 over a local
spherical neighborhood ΔxϵD of radius ρ:
C ( I i , I j , u 0 , u1 )   1   1  x  x`   dx`dx.
I i ( u0 )  I j ( u1 )

They give the marginal auto-co-occurrences for i=j
and the joint-co-occurrences for i≠j [6,7]. The statistics of IAi and Bi are assumed independent. Thus,
the statistics of their product are the convolution of
the statistics of IAi with the Point Spread Functions,PSFs, corresponding to Bi. The latter are
non-stationary Gaussian distributions, G(σ).
The distortions of the auto-co-occurrences are
expressed in polar coordinates. The multiplicative
spatial non-uniformity results in a standard deviation of the radial distortion that is linearly proportional to the radial coordinate, σr∝r. The angular
PSF G(σφi) is largest along the diagonal and zero
along the axes. The standard deviation of the distortion of the joint-co-occurrences is proportional to
Cartesian coordinates, σui∝ui.
The restoration separates Ii into the products of Bi
and IA,i. It is iterative, t, with coordinate descent
along the regularity constraints. An iteration provides Bi,t and IAi,t, i=0,1. The co-occurrences are
restored with non-stationary Wiener filtering
f=G/(|G|22+0.1). The restored statistics are forced
back to the images. The auto-co-occurrence statistics provide restored intensities in polar form
(ri`,i`) and restoration matrix Rsi,t(r,φ) as:
_
Abstract The Radio-Frequency (RF) field in MRI is
in practice inhomogeneous and leads to nonbiological intensity non-uniformities across an image [1,2]. Moreover, patient imaging includes various contrasts with different non-uniformities. The
method presented and evaluated performs a postacquisition joint restoration of two such images. It
restores the marginal and joint statistics of the
images. It also enforces other regularity constraints. The effectiveness of the method has been
validated with BrainWeb MRI data using the Coefficient of Joint Variation (CJV) between the intensity statistics of regions of different tissues [3].
_
Keywords Anatomic MRI, multi-contrast MRI, intensity non-uniformity, image restoration.
Introduction
The analysis of MRI data is hampered by nonbiological intensity non-uniformities that stem from
the inhomogeneity of the RF field and its interaction with the subject. A patient imaging protocol
includes multiple contrasts suffering from different
non-uniformities. There have been attempts to
calibrate for the RF non-uniformities with parameterized acquisitions [2], which, however, prolong
imaging. Several post-acquisition restoration
methods have been proposed for images of specific anatomies or statistics [2,4]. A post-acquisition
method for joint image restoration preserves the
differential structure and enforces smooth nonuniformities [5].
The method presented performs joint restoration of
two images of the same anatomy with different
contrasts. It uses the auto-co-occurrence and the
joint-co-occurrence statistics of two images [6,7].
These statistics are restored with a Wiener filter.
Additional data regularities and the valid signal
regions of the images are considered. The method
is non-parametric over statistics and contrasts of
tissues in images. Its effectiveness and accuracy
has been demonstrated by validating it with
BrainWeb MRI images [3]. This has been achieved
with the Coefficient of Joint Variation, CJV, between the intensity statistics of regions of different
tissues.
r ,    CC f f(( , ,  ) )**(r(1,,1) ) , R
i
'
'
i
ii
i
ii
i
ri
i
ri
i
i
i
s
i ,t
(r ,  ) 
ri'
,
ri
where * is convolution. The restoration of the jointco-occurrences provide updated coordinates
(u0´,u1´)=(C01f01(σu0,σu1)*(u0,u1))/(C01f01(σu0,σu1)*(1,1))
and restoration matrices Rbi,t(u0,u1)=ui´/ui. The three
restoration matrices are back-projected to the images to provide an initial estimate of the restorations
W’’i,t(x)=(1/2)EΔxϵD(Rsi,t(Ii(x),Ii(x+Δx))+Rbi,t(I0(x),I1(x+
Δx))),i=0,1.
Methods
Data description: The image datasets consist of
five pairs of T1 and T2 images from the BrainWeb
database [3]. The images are corrupted with simu-
17
These estimates are Gaussian filtered spatially
with G(σs) to enforce smooth non-uniformities
W’i,t=W’’i,t*G(σs), i=0,1. The restored images are
also adjusted to preserve their L1 norm, |Ii,t|1=|Ii|1,
i=0,1. The iterations end when the entropy of Cii,
Si,t, i=0,1 and of C01, S01,t, satisfy (Si,t+1-Si,t)/Si,t>0.2,
for i=0,1, 01 or at a maximum number tmax=100.
Implementation: The method is in C++. The Bi
exist over the signal regions that are identified. The
minimum signal intensities for Ii, i=0,1 depend on
the variances of the Rayleigh noise. The dynamic
ranges also exclude high intensity motion artifacts.
The signal regions are then denoised topologically.
The estimated Bi are extrapolated to the entire
images.
The adjustable parameters of the method are
σr1=σr2 and σs1=σs2. The σri, i=0,1, are a fraction of
the dynamic range and σui=(1/√2)σri. The spatial
Gaussian filtering is separable. The iterations start
with an under-estimate of σri and an over-estimate
of σsi that are σri = 2%, σφi=4°, and σsi=140 pixels.
Validation: The intensity uniformity is quantified as
the contrast between the intensity statistics of the
Gray Matter (GM) and of the White Matter (WM)
regions. In particular, with the mean values of the
tissue intensity statistics, μGM and μWM, as well as
their standard deviations σGM and σWM. They give
the Coefficient of Joint Variation (CJV) [6]:
CJV (GM , WM ) 
 GM   WM
GM  WM 2
Table 1: The CJVs for intensity statistics of GM and
WM tissues. In parentheses are the ratios of the
restored to the original CJVs. Values less than unity
indicate improvement.
Brainweb
N
3
5
5
5
5
RF
40
40
60
80
100
Original
T1
T2
0.69
1.06
0.74
1.26
1.28
2.19
1.28
2.19
1.28
2.19
Joint co–occurrences
T1
T2
0.64(0.92)
1.02(0.95)
0.73(0.97)
1.25(0.99)
0.98(0.76)
1.38(0.63)
0.98(0.76)
1.38(0.63)
0.98(0.76)
1.38(0.63)
Discussion
The method allows non-parametric representations
for both non-uniformities and anatomic statistics. It
is thus robust to variations in anatomy, pathology,
and contrasts. It has been validated with BrainWeb
data using the CJV between the intensity statistics
of different tissues. The results demonstrate the
effectiveness of the method that can shorten patient scanning time required for calibration.
.
It is computed for the T1w and the T2w images to
give CJVT1 and CJVT2, respectively. An effective
restoration decreases the value of CJV. The ratio
of the CJV of the restored image, CJVIt, to the original image, CJVI0, CJVIt/CJVI0, below unity indicates
an effective restoration.
Figure 1: Original and restored T1w and T2w images and their statistics. The restored statistics are
sharper and preserve tissues contrasts.
Experimental Results
The values of the CJV for the T1 image, CJVT1 , and
for the T2 image, CJVT2, are in Table 1. The Table
shows the values of the original corrupted image
pairs and the values of the intensity restored images. In parentheses are the ratios of the CJVs of the
restored to the corresponding original images that
are always less than unity. They demonstrate the
improvement that is greater for higher magnitude
non-uniformities such as in high field MRI. The
noise level also affects the restoration. The method
removes non-uniformity and also preserves tissue
contrast.
An example of the analysis of images of a BrainWeb data set with non-uniformity of 40% and noise
of 5% is in figure 1 that shows slices from the original and restored images as well as their cooccurrences. The cerebellum tissues become
brighter and similar in intensity to those of the cerebrum. The restored statistical distributions are
also sharper and as expected preserve tissues
contrasts.
Literature
[1] Sled, J., Zijdenbos, A., Evans, A., IEEE Trans.
on Med. Imag., vol. 17 (1):pp. 87–97, 1998
[2] Noterdaeme, O., Brady, M., Proc. of ISBI, pp.
1525-1528, 2008
[3] Collins, D., Zijdenbos, A., et al., IEEE Trans. on
Med. Imag., vol. 17 (3): pp. 463–468, 1998
[4] Belaroussi, B., Milles, et al., MedImA, 10, 234–
246, 2006
[5] Fan, A., Wells III, et al, Proc. of IPMI. Vol.
Springer LNCS 2732, pp. 148–159, 2003
[6] Hadjidemetriou, S., Studholme, et al, MedImA,
vol. 13(1):pp. 36-48, 2009
[7] Hadjidemetriou, S., Buechert, M., et al, Proc. of
IPMI, Vol. Springer LNCS 6801, pp. 346-358, 2011
18
QUALITÄTSBETRACHTUNG DER WAVELETANALYSE IN ABHÄNGIGKEIT
DER AUFNAHMEFREQUENZ VON EMG SIGNALEN
L.G. Wiedemann1, T.S. Haftner1, B. Pobatschnig1, M. Faulhuber2, M. Reichel1
1
FH Technikum Wien, Österreich
Fakultät für Mathematik, Universität Wien, Österreich
2
[email protected]
Abstract Im Rahmen dieser Studie werden 4kHz
mit 1kHz Daten im Frequenz- und Amplitudenbereich
verglichen. Dazu finden die Wavelet Transformation
von Von Tscharner (2000) und die Root Mean Square (RMS) Analyse Anwendung. Die Untersuchung
wird sowohl anhand künstlich erzeugter Signale, als
auch bei isometrischen und dynamischen EMG Messungen von sechs Muskeln durchgeführt. Die relativen Differenzen zwischen den beiden Methoden
liegen im Mittel zwischen 0,65% ± 3.60% und 1,37%
± 0,48%. Es zeigen sich demnach relativ geringe
Unterschiede im Vergleich der 4kHz und 1kHz Daten. Weitere Studien sollten auch Signale mit höheren mittleren Frequenzen analysieren.
4kHz in Matlab (R2010b) erzeugt. Diese Frequenzgrenzen beziehen sich auf die minimale und maximale "center-frequency" der Wavelets, die in der Filterbank von Von Tscharner [6] angegeben sind. In dieser Filterbank werden 11 verschiedene Wavelets
definiert, die für die EMG-Frequenzanalyse entwickelt
wurden.
Die erzeugten Signale werden auf 1kHz
"downgesampled" indem jeder vierte Wert des Datensatzes einen neuen Datensatz bildete. Für eine
weitere Analyse werden diese Daten wieder auf
4kHz interpoliert. Diese Vorgehensweise wird in weiterer Folge als "re-upgesampled" bezeichnet. Die
künstlichen Ausgangssignale werden sowohl den
1kHz Daten, als auch den re-upgesampelten (4kHz)
Signalen gegenüber gestellt. Mittels Wavelet Transformation und RMS Analyse wird der mittlere Frequenz- (MF) und Amplitudenverlauf der Originalsignale und der bearbeiteten Signale analysiert (mit
einer Fensterbreite von 40ms) und in weiterer Folge
miteinander verglichen. Zudem wird die elektrische
Aktivität einzelner Muskeln - M. vastus laeralis, M.
gastrocnemius medialis, M. semitendinosus, M.
biceps brachii, M. triceps brachii, M. pectoralis major - isometrisch in verschiedenen MVC Positionen
und während dynamischer Bewegungen (Liegestütz
und Drop Jump) mit Hilfe des DELSYS Systems
(Aufnahmefrequenz 4kHz) aufgezeichnet.
Die Auswahlkriterien der Bewegungsarten und Muskeln beziehen sich auf eine möglichst hochfrequente
Muskelaktivität während den Bewegungen [2]. Es
wurden je drei dynamische und isometrische Messungen (5s) pro Muskel untersucht. Bei den dynamischen Messungen werden die Muskeln nur während
ihrer Dauer der Aktivierung analysiert. Die Fensterbreite für die Berechnung der MF und RMS wird bei
isometrischen Bewegungen mit 100ms und bei dynamischen Messungen auf 40ms festgelegt.
Für die statistische Analyse wird eine Abwandlung
des Bland Altmann Diagramms verwendet [1].
Keywords Aufnahmefrequenz, Wavelet Transformation, RMS, EMG, Mittlere Frequenz
Einleitung
Um die Datenakquirierung beliebiger Signale so genau wie möglich zu gewährleisten, ist die geeignete
Wahl der Abtastfrequenz des Messgeräts ein unumgängliches Kriterium. Dabei ist das Beachten des
Nyquist-Shannon Theorems notwendig. Beim Messen von EMG Daten sollen laut Merletti [4] Frequenzen von maximal 500Hz für die Signalanalyse berücksichtigt werden. Dies bedeutet, dass für das
Messen von EMG-Daten eine Abtastfrequenz von
mindestens 1000Hz benötigt wird. Bisher wurden in
der Praxis jedoch vermehrt Geräte mit höheren Abtastfrequenzen vermarktet. Ob dies zu einer realitätsgetreueren Darstellung des Signals führt, wurde
in vergangen Studien kontrovers diskutiert [3,5].
In der folgenden Studie wird erwartet, dass die Reduktion der Abtastfrequenz von 4kHz auf 1kHz eine
mittlere relative Differenz unter 5 % im Bezug auf den
quadratischen Mittelwert und der mittleren Frequenz
bedeuten. Eine weitere Annahme besteht darin, dass
durch entsprechende Interpolation ("Upsamplen")
von 1kHz auf 4kHz zusätzliche Stützstellen entstehen, die eine bessere Reproduzierbarkeit eines originalen 4kHz Signals widerspiegeln.
Ergebnisse
Methoden
Die Frequenz-Untersuchung der EMG-Signale bei
den isometrischen Messungen zeigt eine mittlere
relative Differenz von 1,37% ± 0,48%. Die maximale
mittlere Frequenz beträgt 195,4Hz (Abb.1).
Im Bezug auf die Fragestellung wird ein künstliches
Signal mit einem kontinuierlichen Frequenzanstieg
von 6,90Hz bis 395,46Hz und einer Abtastrate von
19
Das 95% - Konfidenzintervall reicht von 0,44% bis
beträgt der absolute Mittelwert der Differenzen des
1kHz Signals 0,63Hz ± 0,22Hz und des interpolierten
4kHz Signals 0,01Hz ± 0,03Hz. Es wird angenommen, dass aufgrund der Interpolation mehr Stützstellen für die Wavelets entstehen und somit die Rekonstruktion im Frequenzbereich verbessert wird. Aus
diesem Grund werden im weiteren Verlauf die originalen EMG Signale lediglich mit den reupgesampelten Datensätzen verglichen.
Bei der Gegenüberstellung der 4kHz mit den reupgesampelten EMG Daten weicht der Mittelwert der
Differenzen um höchstens 1,37% in Relation zu den
Frequenzen und Amplituden der originalen Daten ab.
Diese Ergebnisse bestätigen die Vermutung, dass
die mittleren Differenzen um weniger als 5% durch
die Wahl einer geringeren Aufnahmefrequenz von
1kHz im Vergleich zu 4kHz abweichen. Diese 5%Grenze wird bei der RMS-Untersuchung dynamischer EMG-Signale zwar überschritten (Tab. 2), jedoch zeigt sich eine sehr geringe mittlere Differenz
von 0,65% zum Originalsignal.
In Anlehnung an die maximal ermittelte Frequenz
(195,4Hz) ist anzunehmen, dass höhere Frequenzanteile im EMG-Signal mit höheren Informationsverlusten im Frequenz- und Amplitudenbereich einhergehen. Dieser Umstand sollte in weiteren Studien
analysiert werden. Zudem wären Informationen bezüglich der Auswirkungen weiterer Abtastraten in
zukünftigen Studien sinnvoll.
Die Untersuchungen dieser Studie weisen darauf hin,
dass keine höheren Aufnahmefrequenzen als 1kHz
für EMG-Analysen notwendig sind.
2,31%.
Abbildung 1: Bland Altmann Plot. x-Achse: Mittlere
Frequenz der Originaldaten. y-Achse: relative
Differenzen der mittleren Frequenzen der 4kHz
und 1kHz Daten.
Im Folgenden werden zwei Tabellen (Tab.2 und
Tab.3) mit den Vergleichswerten der mittleren Frequenzen (F) und Amplituden (A) bei den jeweiligen
Bewegungsarten bzw. des künstlichen Signals
angegeben.
Tabelle 2: Mittelwert der relativen Differenz (Mw.),
Standardabweichung
(Std.)
und
95%
Konfidenzintervall (K. Int.) der EMG-Signale.
Bewegungsart
Mw. [%] Std. [%] K. Int. [%]
Isometrisch (F)
1,37
0,48
0,44 - 2,31
Isometrisch (A)
0,80
1,25
-1,65 - 3,24
Dynamisch (F)
1,19
1,33
-1,43 - 3,80
Dynamisch (A)
0,65
3,60
-6,40 - 7,71
Literatur
[1] Bland,
J.,
&
Altman,
D.
(2010).
Statistical methods for assessing agreement
between two methods of clinical measurement.
International Journal of Nursing Studies, 47,
931-936.
[2] Illbeigi, S., van Gheluwe, B. (2011).
Electromyogeraphic wavelet analysis of lower
extremity muscles during sprint start and two
subsequnt steps. Portuguese Journal of Sport
Science, 11(2), 739-742.
[3] Ives, J.C. & Wigglesworth, J.K. (2003). Sampling
rate effects on surface EMG timing and amplitude
measures. Clinical Biomechanics. 18(6), 543-552.
[4] Merletti, R. (1999). Standards for Reporting EMG
Data. Journal of Electromyography and Kinesiology, 9(1), III-IV.
[5] Siemienski, A., Kebel, A. & Klajner, P. (2006).
Fatigue independent amplitude-frequency correlations in EMG signals. Zeszyty Naukowe
Katedry Mechaniki Stosowanej, 26, 315-320.
[6] von Tscharner, V. (2000). Intensity analysis in
time-frequency space of surface myoelectric
signals by wavelets of specified resolution.
Journal of Electromyography and Kinesiology,
10, 433-445.
Tabelle 3: Mittelwert der absoluten Differenzen
(Mw.), Standardabweichung (Std.) und 95%
Konfidenzintervall (K. Int.) der künstlichen Signale.
Die originalen 4kHz Daten wurden den 1kHz, und
den interpolierten (ip) 4kHz Daten gegenübergestellt.
Künstliches
Signal
4 kHz vs 1 kHz
Mw.
[Hz]
0,63
Std.
[Hz]
0,22
K. Int. [Hz]
4 kHz vs 4 kHz (ip)
0,01
0,03
-0,05 - 0,06
0,20 - 1,07
Diskussion
Die Ergebnisse dieser Studie zeigen, dass eine Abtastfrequenz von 1kHz für die vorliegenden EMGSignale ausreichend ist. Durch eine Interpolation des
Datensatzes auf 4kHz kann eine Minimierung des
Fehlers im Frequenzbereich erreicht werden. So
20
GRUNDFREQUENZBESTIMMUNG IN SPRACHSIGNALEN DURCH
ADAPTIVE KREUZKORRELATION
M. Staudacher, V. Steixner, A. Griessner, C. Zierhofer
Institut für Mechatronik, Universität Innsbruck, Österreich
[email protected]
Abstract Der vorliegende Artikel präsentiert einen
Algorithmus zur Grundfrequenzbestimmung in
Sprachsignalen. Dazu wird ein Segment des Sprachsignales extrahiert und mit dem laufenden Signal
korreliert. Sobald eine periodische Wiederholung anhand der Korrelationswerte detektiert wird, kann ein
Schätzwert für die Grundfrequenz berechnet werden.
Nach jeder Berechnung eines Schätzwertes wird das
extrahierte Segment durch jenes ersetzt, das den
Ausschnitt des Sprachsignals enthält, welcher für die
Berechnung der letzten Korrelation verwendet wurde.
Das Ergebnis ist ein Algorithmus, der nach einer kurzen Zeitverzögerung den aktuellen Wert der Tonhöhe mit einer geringen Fehlerrate bestimmt.
on (adaptive cross correlation, ACC). Dazu wird ein
Segment der Länge Lw des Sprachsignales extrahiert
und mit dem laufenden Sprachsignal korreliert. Die
berechneten Korrelationswerte sind ein Maß für die
Übereinstimmung des Segmentes mit dem jeweiligen
Teil des Sprachsignales, das zur Berechnung der
Korrelation verwendet wurde. Liegt ein periodisches
Signal vor, weist das Korrelationssignal theoretisch
nach einer Periode ein ausgeprägtes Maximum auf.
Dieses Maximum wird von einem Spitzenwertdetektor gesucht, der durch eine Zeitkonstante τ charakterisiert wird. Der Abstand zweier Maxima im Korrelationssignal ist ein Maß für die Periodendauer und somit für die Grundfrequenz zwischen diesen Punkten.
Nachdem ein Schätzwert für die Grundfrequenz berechnet werden konnte, wird das Segment durch den
Ausschnitt des Sprachsignales ersetzt, welcher zur
Berechnung der letzten Korrelation herangezogen
wurde. Die weitere Berechnung erfolgt anschließend
mit diesem neuen Segment, bis wieder ein Maximum
in den Korrelationswerten detektiert wird. Eine detailliertere Beschreibung erfolgt in [4]. Da die Korrelation
eines Segmentes mit dem Sprachsignal berechnet
wird, beträgt die notwendige Länge des Segmentes
einmal die Periodendauer der niedrigsten zu detektierenden Frequenz. Zur Bestimmung der Grundfrequenz ist somit diese Länge zuzüglich der auftretenden Periode notwendig.
Es resultiert ein Algorithmus, der ein Signal mit Werten aus der Vergangenheit vergleicht und die Tonhöhe abschätzt, sobald eine Periode des Signals detektiert wurde. Dies ermöglicht es, die Grundfrequenz
mit einer geringen Zeitverzögerung zur tatsächlichen
Tonhöhe zu berechnen.
Keywords Grundfrequenzbestimmung, Signalverarbeitung, Kreuzkorrelation, Autokorrelation
Einleitung
Eine schnelle Detektion stimulationsrelevanter Daten
in Cochlea-Implantaten ist eine Grundvoraussetzung,
um auftretende Zeitverzögerungen so kurz wie möglich zu halten. Dies dient beispielsweise dem Ziel
einer möglichst synchronen audiovisuellen Wahrnehmung [1] und dem Vermeiden störender Zeitverzögerungen direkter und gefilterter Audiosignale bei
einseitig Ertaubten. Wird eine Tonhöhenbestimmung
in die Signalverarbeitung integriert, wird an diese
ebenso die Forderung einer möglichst schnellen und
exakten Abschätzung der auftretenden Grundfrequenz gestellt.
Viele Algorithmen zur Grundfrequenzbestimmung
analysieren ein Sprachsignal, in dem sie dieses in
Segmente einer bestimmten Länge unterteilen und
die Annahme treffen, dass die Frequenz innerhalb
des Segmentes stationär ist [2]. Die Grundfrequenz
zu jedem Segment wird anschließend z.B. durch Autokorrelation bestimmt. Dazu muss das Segment
zumindest doppelt so lang wie die Periode der niedrigsten zu bestimmenden Frequenz sein [2,3]. Sollen
etwa Frequenzen ab 50 Hz detektieren werden, beträgt die Mindestlänge des Segmentes 40 ms. In einer Echtzeitanwendung tritt daher eine Zeitverzögerung zwischen der aktuellen Tonhöhe und dem berechneten Schätzwert auf, welche der Länge des
Segmentes entspricht.
Als Mittel zur Bewertung der Fehlerrate von Verfahren zur Grundfrequenzbestimmung werden öffentlich
verfügbare Sprachdatenbanken [5, 6] herangezogen.
Diese enthalten Sprachsequenzen mit verschiedenen Sprechern und Referenzwerte zur Tonhöhe. Die
berechneten Schätzwerte werden mit den Referenzwerten der Datenbanken verglichen, was die Angabe
eines relativen Fehlers ermöglicht. Als Fehler (gross
error) gewertet werden Resultate, die mehr als 20 %
vom Referenzwert der Datenbank abweichen. Um
einen möglichst objektiven Fehlerwert zu berechnen,
der auch einen Vergleich zwischen unterschiedlichen
Datenbanken zulässt, werden ausschließlich stimmhafte Sequenzen der Sprachsignale zur Analyse
herangezogen.
Methode
Der vorliegende Algorithmus zur Grundfrequenzbestimmung beruht auf einer adaptiven Kreuzkorrelati-
21
eine Periode des Signals bestimmt wurde. Dazu beträgt die notwendige Länge des Segmentes lediglich
einmal die Periodendauer der niedrigsten zu detektierenden Frequenz. Der Vergleich zu anderen Algorithmen zeigt eine niedrige Fehlerrate bis hin zur kürzesten untersuchten Segmentlänge.
Dies ermöglicht es, die Grundfrequenzen in Sprachsignalen gleichzeitig mit einer geringen Zeitverzögerung durch die Verwendung kurzer Segmente und
mit einer niedrigen Fehlerrate zu berechnen.
Ergebnisse
Für die folgenden Untersuchungen wurde das
Sprachsignal bandpassgefiltert (Butterworth-Filter
6. Ordnung, Grenzfrequenzen 50 Hz / 500 Hz, Flankensteilheit ±18 dB/oct). Zusätzlich erfolgt eine Höhenabsenkung ab 50 Hz um -6 dB/oct, um höherharmonische Anteile des Sprachsignales zu dämpfen.
Abbildung 1 zeigt die Anzahl der Fehler als Funktion
der Segmentlänge LW und der Zeitkonstante τ des
Spitzenwertdetektors für die beschriebene Implementierung des ACC-Algorithmus (∇) und als zusätzliche
Variante ohne Höhenabsenkung (o). Grundlage für
die Evaluierung bildet die Keele-Datenbank [5]. Wie
der Abbildung entnommen werden kann, existieren
sowohl für die Länge des Segmentes, als auch für
die Zeitkonstante optimale Werte, um den Rechenfehler des Algorithmus möglichst gering zu halten.
Des Weiteren wird durch die Höhenabsenkung eine
deutliche Verbesserung der Fehlerrate erreicht.
Abbildung 2: Vergleich der Fehlerrate (gross errors)
des ACC-Algorithmus, Autokorrelations-Algorithmus
und SHRP-Algorithmus als Funktion der Segmentlänge.
Literatur
[1] E. Freeman, A. Ipser, A. Palmbaha, D. Paunoiu,
P. Brown, C. Lambert, A. Leff, J. Driver, Sight and
sound out of synch: Fragmentation and renormalisation of audiovisual integration and subjective
timing, in: Cortex, Vol. 49, 2013, pp. 2875-2887.
[2] W. Hess, Pitch Determination of Speech Signals:
Algorithms and Devices, Springer-Verlag, Heidelberg, Germany, 1983.
[3] S. Hande, M. Shah, Pitch estimation, in: International Conference on Computational & Network
Technologies (CNT), Pune, 2013.
[4] M. Staudacher, V. Steixner, A. Griessner, C.
Zierhofer, Time domain pitch determination –
pitch picker, in: CI 2014, Munich, 2014.
[5] F. Plante, G. Meyer, W. Ainsworth, A pitch extraction reference database, in: ESCA EUROSPEECH '95 4th European Conf. on Speech
Communication and Technology, Madrid, 1995,
pp. 837-840.
[6] P. Bagshaw, Fundamental Frequency Determination Algorithm (FDA) Evaluation Database,
Centre for Speech Technology Research, University of Edinburgh.
Abbildung 1: Fehler (gross errors) als Funktion der
Segmentlänge und der Zeitkonstante.
Durch eine Evaluierung wie in Abb. 1 dargestellt,
konnte zu jeder Segmentlänge eine optimale Zeitkonstante bestimmt werden. Aufbauend auf diesen
Ergebnissen erfolgt in Abb. 2 ein Vergleich des ACCAlgorithmus (∇) mit einem Algorithmus auf Basis von
Autokorrelation (●) und dem SHRP-Algorithmus
(subharmonic to harmonic ratio) (o), der im Frequenzbereich nach der auftretenden Grundfrequenz
sucht. Die Abbildung zeigt die Resultate für die Keele-Datenbank. Zur Kontrolle der Ergebnisse erfolgte
dieselbe Auswertung ebenfalls mit der CSTRDatenbank [6], was qualitativ zum selben Ergebnis
führte. Wie zu sehen ist, zeigt der ACC-Algorithmus
eine niedrige und nahezu konstante Fehlerrate über
den gesamten untersuchten Bereich der Segmentlängen.
Diskussion
Wie in der Beschreibung der Methode erläutert wurde, berechnet der ACC-Algorithmus einen Schätzwert für die Grundfrequenz in Sprachsignalen sobald
22
VALIDATION OF A FLEXIBLE OPTIMAL CONTROL APPROACH FOR RFPULSE-DESIGN INCLUDING RELAXATION EFFECTS AND SAR
Christoph Stefan Aigner1, Christian Clason2, Armin Rund3, and Rudolf Stollberger1
1
Institute of Medical Engineering, Graz University of Technology, Graz, Austria
2
Faculty of Mathematics, University of Duisburg-Essen, Germany
3
Institute for Mathematics and Scientific Computing, University of Graz, Graz, Austria
[email protected]
Abstract Radio frequency (RF) pulses are essential in MRI to excite and alter magnetization. We present and validate a flexible approach based on optimal control of the full time-dependent Bloch equation,
including relaxation effects. A globally convergent
trust-region Newton method with exact derivatives via
adjoint calculus allows the efficient computation of
optimal pulses. The results are validated on a 3T
scanner and demonstrate the ability to generate optimized pulses for arbitrary flip angles and arbitrary
slice profiles.
Keywords MRI, RF-pulse-design, slice selective
excitation, optimal control theory
( )
( )) , is the
( ) ( ( )
solution of the time-dependent Bloch equation
̇( )
term
Theory The optimal control approach to pulse design
consists in minimizing the functional
| (
)
( )
(
(
)
)
contains
Implementation The described approach was
implemented in MATLAB (The MathWorks, Inc.,
Natick, USA) and used to compute optimized pulses for a rectangular slice with a thickness of 20mm
and a flip angle of 90° for a total excitation time of
T=2.56ms starting from a zero initial guess. The
slice selection gradients were taken from a gradient echo sequence on a 3T MR scanner (Magnetom Skyra, Siemens Healthcare, Erlangen, Germany).
Methods
∫
( ),
the initial magnetization
and the longitudinal and
transversal relaxation of the nuclear magnetization
.
( ) is the desired slice profile and ( )
( ()
()
( )) includes the scaling
and the shape of the RF pulse ( )
( ( ) ( )) to be optimized and the prescribed
slice selective gradient . The last term in incorporates the desire for minimal SAR of the optimized
pulse and is weighted with α for a trait-off between
the slice profile accuracy and the required pulse
power.
The optimal control minimizing can be computed
using a globally convergent trust-region Newton
8
method with a matrix-free iterative solution of the
Newton step, where the gradient and application of
the Hessian are calculated using the adjoint calculus,
i.e., by solving in each step forward and backward
Bloch equations. Since it is essential to have accurate derivative information, this is done via a numerical simulation of the full Bloch equation, where the
time-stepping schemes are chosen such that the
discretized derivatives coincide with the derivatives of
the discretized functional (adjoint-consistency).
For many applications in MRI there is still a demand
for the optimization of slice selective RF pulses. Inhomogeneous RF fields and the restrictions of the
Specific Absorption Rate (SAR) are a challenge for
RF pulse design at high field strength. Short pulses in
fast imaging typically suffer from a bad slice profile.
Computing RF pulse shapes with a good slice profile,
low SAR requirement and robust against RF in homogeneities is therefore still important and becomes
critical for quantitative methods. Conventional design
is based on simplifications of the Bloch equation, i.e.
1
the small tip angle or the hard pulse approximation .
1-3
Applying iterative methods , including optimal con4-7
trol (OC) , are used to improve the excitation process. However, its computational effort and difficult
implementation limits a general application. We present and validate a generalized approach based on
optimal control of the full time-dependent Bloch equations that is able to handle arbitrary flip angles and
target slice profiles. Furthermore, the flexibility of the
formulation allows inclusion of relaxation effects and
models the SAR by adding a regularization term in
the cost function.
)
()
and describes the total precession of the nuclear
magnetization in an external magnetic field B at the
end of the excitation time
for every point along
the slice direction from
to
. The relaxation
Introduction
(
()
( )|
∫ | ( )|
where the three dimensional magnetization vector
Validation The results of the numerical optimization
for the first profile were verified on the above mentioned scanner using a body coil and a cylinder phan-
23
tom with a diameter of 140mm, a length of 400mm
and relaxation times T1≅102ms, T2≅81ms and
T2*≅70ms.
Results
Figure 1-3 show the results of the numerical optimization for the rectangular target profile. The optimized
pulse (
()
( ))
( ()
( ) ) is given
in Figure 1. It can be seen that ( ) is similar, but not
identical, to a standard sinc shape, and that ( ) is
nearly zero, which is expected due to the symmetry
of the prescribed slice profile. Figure 2 contains the
corresponding slice profile ( ) obtained from a
numerical solution of the Bloch equation and the
experimental results (small crosses) which confirms
the simulation. It shows an excitation with a steep
transition between the in- and out-of-slice regions
and a homogeneous flip angle distribution across the
target slice. The phantom image is shown in Figure 3,
where the slice profile in Figure 2 is indicated in red.
Figure 3: Reconstructed experimental phantom image
using optimized pulse shown in Figure 1.
Discussion
The results indicate that the proposed approach allows a problem specific optimization for 1Dexcitation. Due to the flexibility of the optimal control
formulation, it is possible to include additional robustness (e.g., with respect to B1 or B0 inhomogeneities)
as well as joint optimization of pulse and gradient
shape including slew rate limitations.
Acknowledgement
This work is funded and supported by the Austrian
Science Fund (FWF) in the context of project "SFB
F3209-18" (Mathematical Optimization and Applications in Biomedical Sciences).
References
[1] Pauly J et al. Parameter Relations for the Shinnar-Le
Roux Selective Excitation Pulse Design Algorithm.
IEEE Trans Med Imaging. 1991; 10: 53-65
[2] Gezelter JD, Freeman R. Use of Neural Networks to
Design Shaped Radiofrequency Pulses. J Magn Reson. 1990; 90: 397-404
[3] Buonocore MH. RF pulse design using the inverse
scattering transform. Magn Reson Med. 1993; 29: 470477
[4] Conolly S et al.Optimal Control Solutions to the Magnetic Resonance Selective Excitation Problem. IEEE
Trans Med Imaging, 1986; 5: 106-115
[5] Lapert et al. Exploring the Physical Limits of Saturation
Contrast in Magnetic Resonance Imaging. Sci. Rep.
2012; 2: 589)
[6] Xu D et al. Designing Multichannel, Multidimensional,
Arbritrary Flip Angle RF Pulses Using an Optimal Control Approach. Magn Reson Med. 2008; 59: 547-560
[7] Vinding MS et al. Fast numerical design of spatialselective rf pulses in MRI using Krotov and quasiNewton based optimal control methods. JCP
2012;137: 054203
[8] Steihaug. Conjugate gradient method and trust regions in large scale optimization. SINUM 1983;20:
626-637
Figure 1: Numerical optimized RF-pulse (B1,x and B1,y).
Figure 2: Comparison of the simulated magnetization
pattern (solid line) with experimental data (crosses).
24
„Studierendenwettbewerb Teil 1“
25
26
VIRTUAL REALITY IN TELE-NEUROREHABILITATION
M.Kaindl1
1
FH Technikum Wien, Österreich
[email protected]
Abstract
In this project, a system called “Sirius
move” is developed that enables patients suffering
from deficiencies of neurological abilities and motor
functions, after a brain trauma, to continue therapeutic training at home under professional supervision.
After a stroke or other major brain trauma, the patient
can use the system to regain abilities with a focus on
coordination of the upper extremities. The system
enables a professional to prepare an appropriate set
of tasks for each patient and receive a report on the
training-results. The tasks consist of paths the therapist draws including a start-point and an end-point.
The patient projects the tasks onto a suitable wall
and follows the path with hand-movements. The
movement is tracked using a camera in front of the
patient. The values measured are accuracy, velocity
and level of tremor.
The main goal of the system is to keep the patients
training their abilities and keep the amount of work
for the therapists as low as possible.
Figure 1: Setting of the training
Methods
Hardware: The necessary hardware for the patient
includes a camera with USB connection to a computer and a projector that is connected to the same
computer. It is necessary that an internet connection
is provided for the download of new task-sets and upload of the report. For the professional, a computer
with internet connection is necessary as well. For the
non-real-time data transmission, space on a server is
needed that can be reached by the computers of
both participants of the system.
Software: The software is implemented in Java (Sun
Microsystems, Version 7.0.21). ReacTIVision is used
as a framework for motion-tracking. [4] The printed
fiducial markers provided by the project are applied to
the hand of the patient. (Figure 2). The framework
provides the software with position, velocity and
angle of the fiducial.
Keywords Motion analysis, training, tracking, rehabilitation, stroke
Introduction
After a major injury to the brain, it is necessary to
take immediate care of the patient in a medical institution. During the fist phases of the trauma, the patient needs frequent training to regain motor functions
and cognitive functions. [1] After the acute phase of
the injury, patients need to be released from the hospital as soon as possible. Reasons are lack of financial and personnel resources in the sector of healthcare, [2] but also a higher risk for the patient of being
exposed to bacteria and viruses found in hospitals.
[3]
In a successful concept, the patients must not be left
on their own after discharge. An environment can be
created that combines the advantages of personal
surroundings and those of professional supervision.
Exercises can be analysed by a therapist to review
the patient’s progress. Like almost every person,
patients need to have someone they know reviewing
their progress. Like a music teacher, it is often hardly
necessary to teach, only to be there so the exercises
will be done.
Figure 2: Fiducial marker of the “amoeba” set
provided by ReacTIVision
The system enables a professional to draw a graph
on the computer that the patient shall follow with armmovements in front of a suitable wall, where the projection of the graph can be seen. (Figure 1)
Motion-analysis: The therapist receives the average
distance to the path in pixels for comparison and also
27
an illustration of the movement including the distances measured as lines between the hand and the
closest reference point along the path. (Figure 3).
Through a shifting range of eight reference points,
also self-crossing paths are analysed correctly. The
mean distance to the path is multiplied by a scalar,
calculated from the difference in length between trajectory and path to take detours and short-cuts into
consideration.
Results
Two different pieces of software are developed. The
therapist receives a GUI, which is optimised for fast
use, based on interfaces known from established
drawing-software. The patient's part is clearly arranged and easy to use with only two functions visible to the user. (Figure 6)
Figure 3: Connections to the closest reference point
along the path
Figure 6: System overview- top-left: therapist's GUI –
top-right: patient's GUI
The velocity is illustrated by pointers of certain length
and direction to determine the quality of the movement. (Figure 4)
Discussion
The system provides the important factors of computer aided therapy: motivation, feedback, documentation, repetition and objectivity, while still leaving
room for the therapist's approaches and ideas.
Patients may not be able to install the system without
help and may also require guidance during the first
attempts. The fiducial marker need to face the camera in front of the patient, which is a difficult task for
some users.
Acknowledgement
Special thanks goes to my supervisors FH-Prof. DI
Dr. Lars Mehnen and FH-Prof. DI Dr. Johannes Martinek from FH Technikum Wien.
Figure 4: Illustration of velocity along the path
Tremor is illustrated in Figure 5. Lines which are relatively in order indicate steady movement, while
orderless lines indicate tremor.
Literature
[1] J. Mehrholz, Frühphase Schlaganfall: Physiotherapie und medizinische Versorgung, Kapitel 4,
Thieme Verlag , Stuttgart, Germany, 2008
[2] Statistik Austria, Statistisches Jahrbuch Öster
reichs. Kapitel 3.01, 2013.
[3] R. Thomas, MRSA in der Neurologischen
Frührehabilitation: Eine Bestandsaufnahme zur Inzidenz, Prävalenz und Morbidität, Neurologie & Rehabilitation; 19 (2): 118-122, Hippocampus Verlag,
Bad Honnef, Germany, 2013
[4] R. Bencina, M. Kaltenbrunner, S. Jord`a Improved topological fiducial tracking in the reactivision
system. Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern
Recognition - Workshops, IEEE Computer Society,
Washington, DC, 2005
Figure 5: Illustration of tremor
28
EBALANCE – DEVELOPMENT AND USABILITY EVALUATION OF A COMPUTER GAME FOR REHABILITATIONAL TRAINING
J. Flandorfer1
1
University of Applied Sciences Technikum Wien, Vienna, Austria
[email protected]
Abstract During physical rehabilitation, repetitive
practice of a limited amount of exercises should improve dynamic balance and motor recovery. A different approach is to use virtual reality training and interactive games to retrain postural stability.
It is to find a way to use the eSHOE system, developed by the Austrian research institute CEIT RALTEC (Schwechat, Austria), for training purposes in
physical rehabilitation and to develop a computer
game which can be controlled via movements detected by the eSHOE insoles. The game is then
evaluated by means of usability tests by users between 23 and 27 without any motor deficiencies. The
results of the usability tests are analyzed, recommendations for future development are given and the
game is improved according to the recommendations. Overall, the test subjects show a good reception of the system. However, the usability tests show
that adaptations have to be made to the layout as
well as to the motion detection.
From a set of images one image is selected. The
player has to search through the same set of images
to find the matching image. As soon as the player
has selected and confirmed the matching image,
another one is randomly selected from the set of
images and the player has to find the image once
again. When the time runs out the images correctly
retrieved are counted and the score is displayed.
The game features four different levels of difficulty
with different playing time and different movements to
execute the game’s functions.
Materials and Methods
eSHOE
In order to collect motion measurement data the
application has to be connected with two eSHOE
insoles per recording.
One insole holds four FSR sensors (force sensing
resistors) (A401, Tekscan, South Boston, US) measuring the occurring pressure beneath the heel, metatarsal head I, metatarsal head IV and the toes, an
acceleration sensor (ADXL 346, ANALOG DEVICES,
Norwood, US) for determining the acceleration of the
foot along three axes and a gyroscope (ITG-3200,
InvenSense, Sunnyvale, US) measuring the angular
acceleration along three axes. [4]
The Bluetooth module (KC-22 Bluetooth OEM Micro
Module) will send data collected from the sensors by
the microcontroller (PIC24FJ256GB206T-I/MR, Microchip Technology Inc., Arizona, US) to the connected computer.
Keywords balance, motor deficiency, virtual reality, rehabilitation, training
Introduction
The mobile motion measurement system eSHOE
was developed in the Austrian research institute
CEIT RALTEC. They created an orthopedic insole
instrumented with several sensors and an embedded
system for measuring gait parameters directly in the
shoe without being bound to a laboratory. Sensors in
the insole collect pressure data, the angle of the foot,
acceleration and angular velocity along three axes.
Stroke incidence and often is the cause of major
motor deficiencies, instabilities and balance problems. [1] An improvement of these postural instabilities can be achieved by conventional rehabilitation
interventions like movement re-education, therapeutic exercises, or training with walking aids. [2] Although such conventional training practices often
achieve the objective of retraining postural stability,
studies suggest that this kind of physical rehabilitation
does not evoke engagement or commitment to the
training from the side of the patient. [3]
Studies indicate that introducing games in rehabilitation processes is at least as effective as engaging
only in conventional therapy. [3] Also, including suitable games supports the adherence of the patient to
the rehabilitation process and encourages him or her
to comply with the therapy plan.
The game aims at training balance and weight shift.
eBALANCE
Figure 1: Game window of eBALANCE with the
score and the time left displayed.
29
The instructions on the instructions window could not
be understood or were misleading for four test persons. Still, seven subjects state that it was easy for
them to learn how to control the system and all of
them consider the game clear and understandable.
According to the answers of the test subjects it can
be assumed that the level of difficulty “easy” was
accepted quite negatively. However, it is shown that
the levels of difficulty “easyplus”, “medium” and “hard”
are assessed rather positively by the tests subjects.
The results indicate a good reception of the control
motions in all of the levels of difficulty.
Four test persons claim that moderate physical and
mental effort is required during the gameplay.
The overall reaction to the game is that it was fun to
play but only five of the test subjects see themselves
continuing to play the game on a regular basis.
The observations of the supervisor say that the test
persons could easily understand the instructions but
showed some confusion over the instructions window.
In the following description of the game, the term
“user” describes the person setting up the game (e.g.
the therapist) whereas the term “player” refers to the
person actually playing the game and performing the
movements.
Before the actual game can be started, the user has
to choose the level of difficulty, the set of images to
be used and the insole size the player wears. When
the user presses the start button, the Bluetooth module connects to the insoles and the game starts. The
goal of the game is for the player to scroll through a
collection of images in search of a specific image
displayed above the image collection. Figure 1
shows the game window containing the image collection in the form of an image strip. The image in the
middle framed by the red square is the currently selected image and the one on the top right represents
the image which has to be found.
Usability testing
To evaluate the game, a concept for usability tests is
developed in which eight subjects aged between 23
and 27 test the program assessing its overall look
and feel as well as the controls, intuition of movements and feedback of the game. For the initial usability tests a user group of physically healthy people is
preferred over presumably vulnerable elderly people.
The subjects are given an overview of the settings by
a test. Afterwards, each level of difficulty is played
through two times followed by a questionnaire gathering information on the look and clearness of the
game as well as the usage and easiness of the controls.
Factors influencing the evaluation can be divided into
objective and subjective factors, objective being the
points reached by the player as opposed to the usability questionnaire as subjective factors.
Discussion
The usability tests generally show a positive reception of the game. However, adaptations to the motions of the difficulty “easy” (toe stand and heel stand)
have been indicated and are approached in the following re-design stage. Additional sensors, namely
the gyroscope to detect a tilt of the foot, are now used
for the detection of these motions. Another improvement would be using more pressure sensors.
During the test execution it is observed that it is of
significant importance to the detection of the motions
that the insoles used are of a smaller size than the
test subject’s feet. The test persons showed a much
higher effort in performing the motions when their feet
are the same size or smaller than the insoles in their
shoes. This might be due to the arrangement of the
pressure sensors in the insoles.
Also, the usability tests show that changes to the
images on the instruction screen have to be made in
order to make them more self-explanatory. This issue
is also approached and solved in the subsequent redesign stage.
Usability questionnaire
The main section of the questionnaire is divided into
three subsections. The first subsection questions
whether the subjects have already had experience
with either usability tests or motion control systems
and the test subjects are asked if they have received
and understood the spoken instructions and if he or
she considers the game’s graphics and layout clear,
structured and of adequate size. In the next subsection, the player is asked if the instructions window at
the beginning of the game was understood, if he or
she could easily control the game and if it requires
physical or mental effort. The last subsection includes
questions whether it was fun playing the game and if
he or she was likely to continue playing the game.
The supervisor then fills the last section of the questionnaire with his or her observations of the test.
Literatur
[1] Ringelstein E et al.: Der ischämische Schlaganfall: eine praxisorientierte Darstellung von Pathophysiologie, Diagnostik und Therapie. 2007.
[2] Weiss R: Physical Therapy Aide: A Worktext.
2009.
[3] Rajaratnam B et al.: Does the Inclusion of Virtual
Reality Games within Conventional Rehabilitation
Enhance Balance Retraining after a Recent Episode of Stroke? Rehabilitation Research and
Practice, vol. 2013, 2013.
[4] David V, Jagos H, Litzenberger S, Reichel M:
Instrumented insole for mobile and long distance
motion pattern measurement, 2012.
Results
The majority of the test subjects find the screen layout to be neatly arranged and only one test subject
believes the graphics should be a bit larger.
30
ROBOTERUNTERSTÜTZTE MEDIKATION ÄLTERER PERSONEN IM
HÄUSLICHEN UMFELD
M. Schweitzer , A. Hoerbst
Forschungsgruppe für eHealth und Telemedizin, Universität für Gesundheitswissenschaften,
Medizinische Informatik und Technik, Österreich
[email protected]
AbstractAltersbedingte Probleme bei der alltäglichen Medikation älterer Personen führt zur Abnahme
der Compliance. Technische Hilfsmittel wie humanoide Roboter besitzen hier hohes Potential, ältere
Menschen im Alltag zu unterstützen. Auch leistungsfähige seriengefertigte humanoide Systeme mit
preisorientierter Technik existieren bereits, es ist
jedoch unklar, ob diese Systeme zur persönlichen
Unterstützung des Medikationsprozesses geeignet
sind. In dieser Arbeit wurde ein System zur Medikationsunterstützung anhand des Robotersystem NAO
entwickelt, unter Laborbedingungen getestet und
evaluiert. Das System zeigt vielversprechende Ergebnisse auf technischer/funktionaler Ebene, jedoch
werden Untersuchungen im realen Feld benötigt.
Ziel der vorliegenden Diplomarbeit war es, auf Basis
des serienmäßigen, humanoiden Serviceroboters
NAO [3] ein System zur Medikationsunterstützung
älterer Personen im häuslichen Umfeld zu entwerfen,
prototypisch umzusetzen und hinsichtlich dessen
technischer und funktionaler Eignung unter Laborbedingungen zu prüfen.
Methoden
Hierzu wurde ein Medikationsmanagement-System
(MMS) für NAO entwickelt, welches auf den häuslichen administrativen Medikationsprozess fokussiert
ist. Das System wurde dabei ausschließlich auf Softwarebasis ohne Hardwaremodifikationen am NAORoboter umgesetzt. Anforderungen an AAL bzw. an
die elektronische Medikationsunterstützung wurden
mit Hilfe eines Reviews wissenschaftlicher Literatur
erhoben und durch Einbeziehung der Expertenmeinung eines niedergelassenen Arztes validiert. Aus
den identifizierten Anforderungen wurde eine Middleware für NAO zur dynamischen und flexiblen Nutzung verschiedener AAL-Dienste konzipiert und prototypisch umgesetzt. Im nächsten Schritt wurde auf
der Middleware basierend ein prototypischer Dienst
zur Unterstützung des Medikationsprozesses entwickelt. Der Dienst besteht aus einem Grundgerüst,
welches iterativ und agil durch Funktionen ergänzt
wurde. Zur Identifizierung der Medikamente wurden
bildbasierte Ansätze der Merkmalserkennung (Pattern Recognition), der Texterkennung (OCR) und des
Barcode-Scannings umgesetzt. Eine Funktion zur
Wechselwirkungsprüfung wurde mittels Implementierung der SIS Datenbank der österreichischen Apothekerkammer integriert.
Das prototypische MMS wurde durch Modul- bzw.
Integrationstests umfassend getestet. Quantitative
Tests der Medikamentenidentifikation unter verschiedenen Lichtverhältnissen mit Variation der Distanz,
Orientierung und dem Verdeckungsgrad des Medikaments gaben Auskunft über die Erkennungsleistung des Systems. Abschließend wurde ein reales
Testszenario in Laborumgebung durchgeführt.
Keywords Ambient Assisted Living, humanoide
Servicerobotik, Medikationsmanagement
Einleitung
Die häusliche Altenpflege gewinnt durch die steigenden Lebenserwartung bzw. dem vermehrten Auftreten multimorbider Krankheitsbilder zunehmend an
Bedeutung. Ein beachtliches Problem stellt dabei die
tägliche Einnahme der verordneten Medikamente
dar. Die vielfältige Medikation, auch bekannt unter
dem Begriff der Polypharmazie, führt in Verbindung
mit altersbedingten Beeinträchtigungen der kognitiven, visuellen, fein- und grobmotorischen Leistungsfähigkeit zur Abnahme der Compliance. Folglich
nehmen nur ca. 50% aller chronisch kranken älteren
Patienten ihre Medikamente wie verordnet [1].
Ambient Assisted Living (AAL) bietet hierfür geeignete technische Lösungen, den alltäglichen Medikationsprozess eines pflegebedürftigen Menschen zu
unterstützen. Diese Systeme wie Smartphone-Apps,
intelligente Medikamentenspender, Medikationsreminder u.v.w. [2] sind zwar leistungsfähig, bilden
jedoch oft unabhängige Spezialsysteme, welche
nicht bzw. nur aufwändig untereinander verknüpft
werden können.
Sehr hohes Potential als Alltagsunterstützung besitzen humanoide Serviceroboter. Neben prototypischen High-Tech-Lösungen aus Wissenschaft und
Forschung existieren bereits Serviceroboter in seriengefertigter Form mit preisorientierter Technik. Es
ist jedoch nicht bekannt, ob bzw. in wie weit sich
solch ein seriengefertigtes Robotersystem als Alltagsunterstützung einer älteren Person eignet.
Ergebnisse
Aus den ermittelten Problemen aus der Literatur bzw.
den Expertengesprächen wurden Anforderungen
formuliert, welche in die Systemkonzeption und
-implementierung mit einbezogen wurden.
31
Choregraphe
Python
Tabelle 1: Auszug aus den Tests der Medikamentenerkennung.
Funktionsaufruf
Frontend des Systems;
Kommunikation mit Benutzer
AAL-Middleware
Verwendung der adaptiven
AAL-Struktur
Lichtverhältnis
Schnittstelle zwischen
Choregraphe und MMS
helle Umgebung
1
dunkle Umgebung
NAO-Modul
3
Anz.
Erkennungsrate
2
Tests 15cm 30cm 50cm
60
1.0
0.4
0.16
57
0.982 0.246 0.0
1
XML
SQLite
MMS
Datenhaltung
schwache Beleuchtung mit 20W.
20 bzw. 19 Medikamente wurden je 3 Mal getestet.
3
Erkennungsrate unter der Distanz zur Kamera des Roboters
Zentrales MMS mit
Funktionalitäten
2
Persistente Speicherung
der Daten
Dies wurde hinsichtlich des Ziels der Arbeit, die technischen Evaluierung des prototypischen Systems, als
ausreichend empfunden. Für eine Generalisierbarkeit
des Konzeptes müsste der Ansatz jedoch um weitere
Experten bzw. Stakeholder erweitert werden.
Es konnte im Test gezeigt werden, dass NAO gemeinsam mit dem entwickelten MMS eine geeignete
Basis zur Unterstützung des alltäglichen Medikationsprozesses bildet. Aufgrund der verfügbaren Kameras in NAO wurde bewusst auf bildbasierte Verfahren bei der Medikamentenidentifizierung festgehalten. Über OCR konnten keine brauchbaren Ergebnisse erzielt werden, wodurch dieser Ansatz nicht
weiter verfolgt wurde. Die merkmalsbasierte Objekterkennung erzielte die besten Ergebnisse: So
konnten im Abstand von 15cm alle Testmedikamente
erkannt werden, bei schlechter Beleuchtung schlug
nur ein Test fehl (Tab. 2). Der benötige Lernvorgang
beim merkmalsbasierten Verfahren entfällt beim
Barcode-Scanning: Hier kann über die verwendete
Datenbank eindeutig auf die PZN geschlossen werden. Die einfache Kamerahardware von NAO (720p
Auflösung, fixer Fokus) erfordert jedoch eine sehr
genaue Positionierung des Barcodes vor der Kamera. Eine physische Unterstützung ist auf Grund der
Dimensionierung der Hardware des NAO-Roboters
nicht möglich. Die Sprachsteuerung eignet sich
grundsätzlich gut für technisch unerfahrene Benutzer
wobei die Spracherkennung vordefinierter Begriffe
gute Ergebnisse in ruhiger Umgebung liefert. Der
Remote-Zugriff auf die Medikationsdaten bzw. Dokumentation ermöglicht flexible Medikationsänderungen für Arzt oder Pflegepersonal.
Mit dem entwickelten MMS konnten unter Verwendung von NAO aussichtsreiche Ergebnisse als Unterstützung des Medikationsprozesses erzielt werden. Der gesamte Prototyp wurde jedoch bisher nur
unter Laborbedingungen getestet, zur Erhebung der
Praxistauglichkeit werden ergänzende Feldtests im
realen Umfeld benötigt.
Abbildung 1: Schichten der Architektur mit beteiligten
Technologien (li.) und Kurzbeschreibung (re.)
Der resultierende Prototyp besitzt die Fähigkeiten
Medikamente per Bild- und Barcodeerkennung zu
identifizieren, den Patienten an die Einnahme zu
erinnern, die Medikation auf Wechselwirkungen bzw.
Abweichungen vom Verordnungsplan zu untersuchen, und den gesamten Verlauf der Einnahmen in
einer Medikationshistorie zu dokumentieren. Die
Kommunikation zwischen Benutzer und System erfolgt dabei über Spracherkennung bzw. Sprachausgabe. Neben der eigentlichen Interaktion zwischen
Benutzer und Roboter kann auch der Arzt die erstellte Dokumentation einsehen und bearbeiten. Dies
erfolgt per Remote-Verbindung zum System. Außerdem besteht die Möglichkeit, die Medikation eines
ELGA-konformen CDA-Dokumentes automatisch
auszulesen und in das MMS zu importieren.
Die verwendete 5-Schichten-Softwarearchitektur
(Abb.1) erlaubt die flexible Adaptierung der Software,
so können Datenhaltung, Medikationsmanagement
und Roboterplattform (Choregraphe) ausgetauscht
werden, sofern passende Schnittstellen zur Verfügung stehen.
Das Grundgerüst des MMS besteht aus einer Python-Klassenstruktur, welche den kompletten Medikationsprozess abbildet. Das NAO-Modul bildet die
Schnittstelle zwischen MMS und Robotersystem
bzw. AAL-Middleware. Medikamentendatenbanken
bzw. die Persistierung der Klassenstruktur mit Verordnungsplan, Historie und Patientendaten erfolgt
eingebettet in NAO mittels SQLite bzw. XML.
Der Barcode-Scanner wurde in einem separaten
NAO-Modul mit einer Open-Source Bibliothek implementiert. Für die merkmalsbasierte Objekterkennung wurde das NAO-Standardmodul „ALVisionRecognition“ verwendet. Die Zuordnung von Bildmerkmale bzw. Barcode zum Medikament erfolgt
über Mapping der eindeutigen Pharmazentralnummer (PZN) jedes Medikamentes.
Literatur
[1] Murray, MD, Morrow DG, Weiner M, Clark D, Tu
W, Deer MM, et al. A conceptual framework to
study medication adherence in older adults. Am J
Geriatr Pharmacother. 2004;2:36–43.
[2] U.S. Department of Health and Human
Services, Assistant Secretary for Planning and
Evaluation. Report to Congress: Ageing
Services Technology, June, 2012
[3] Aldebaran
Robotics.
[Online].
Available:
http://www.aldebaran-robotics.com. [Accessed:
12-May-2014].
Diskussion
Die Anforderungen des MMS wurden aus wissenschaftlicher Literatur möglichst vollständig erhoben.
Speziell im Bereich des Ambient Assisted Living, wo
noch keine standardisierten Bezeichnungen bzw.
MeSH-Terms existieren, blieb mitunter wichtige Literatur verborgen. Durch Einbeziehung des Experten
konnten die erhobenen Ansätze validiert bzw. erweitert werden.
32
QUANTITATIVE MEASUREMENT OF LEFT VENTRICULAR MYOCARDIAL
PERFUSION BASED ON DYNAMIC CT SCANS
M. Toifl1
1
Institute of Electrical and Biomedical Engineering, UMIT, Austria
[email protected]
Abstract  The knowledge of the myocardial blood
perfusion is essential for the adequate therapy of cardiovascular diseases. Emerging from the various
methods which have been brought up in the past
decades, a framework of contrast agent supported
computed tomography was built up to provide clinicians with absolute myocardial perfusion values.
Since the underlying processing tasks need to be
evaluated systematically, this work goes into detail
with the involved signal processing tasks. The results
help to improve the automatic perfusion calculation
tool by outlining the impact of the processing methods onto the absolute perfusion value.
through the left ventricular cavity and the myocardium.
Once the CT images are recorded, both the
ventricular and myocardial CT values curves
(Fig. 1) are generated from the segmented image
stack. In consequence, a quantitative estimation of
myocardial perfusion is possible by the examination of various parameters of the attenuation
curves (shape, height, upslope) using model-based
and empirical methods.
Preprocessing: The first part of the workflow includes filtering together with equidistant sampling to
enable the application of convolution methods that allow for simulating step responses.
Curve Fitting: In order to increase the robustness of
the perfusion calculation against outliers, the data are
fitted by three different model curves: the Weibull
curve [4], a low-pass of nth order (Eq. 1, [1]) and the
gamma-variate curve [2]. Especially the low-pass of
4th order model proved to be profitable due to its easy
transformability into the Laplacian representation:
Keywords  Computed Tomography, Quantitative
Perfusion, Signal Processing, Curve Fitting.
Introduction
The highly important role of absolute myocardial perfusion (MPF) estimation deduces from the increasing
demands for therapeutic interventions in cardiovascular diseases. One promising technology is the assessment of the perfusion status by means of contrast agent supported computed tomography (CT).
To receive clinically applicable perfusion values, a
workflow is set up, including image acquisition, preprocessing, curve fitting and perfusion calculation
tasks. After accomplishing these tasks, the impact of
the various data processing steps on the quantitative
estimation of myocardial perfusion is evaluated.
f (t )=at
attenuation [HU]
attenuation [HU]
The quantification of MPF relies on the venous injection of an X-ray contrast agent, which mixes up with
the blood on its path to the heart. The passage of the
contrast agent bolus is traced by dynamic CT scans
0 10 20 30 40 50
time [s]
−tb
⋅e
⊶ F ( s)=
6a
n
( s +b )
(1)
Perfusion Calculation: Two main methods are used
to compute absolute perfusion values in the myocardium: the upslope method, which is proposed by KA.
Miles [3] and a convolutional approach, as suggested
by C. Baumgartner [1], based on assumptions formulated by Rumberger [5]. While the upslope method is
of empirical nature, the current project pursues the
Methods
500
400
300
200
100
0
n−1
u(t)
* h(t)
y(t)
Fig. 2: System theoretic model with the ventricular input curve u(t), myocardial output curve y(t) and the
transfer function h(t) between them.
convolution method, a system-theoretic approach,
also facilitating further improvements of this technique towards local perfusion assessments.
The system theoretic concept is illustrated in Fig. 2,
where the ventricular attenuation curve u(t) is considered as the input function. The output function y(t)
is represented by the myocardial attenuation curve
and the transfer function h(t) between input and output is computed either by symbolic evaluation (low-
0 10 20 30 40 50
time [s]
Fig. 1: Example data set, showing a ventricular
(left) and a myocardial CT values curve (right).
33
pass model) or by numerical estimation using the
ARX model (auto-regressive model with exogenous
inputs, Eq. 2).
vised to take the quality of fit into consideration, as
well as the purpose of the used model curve.
Also the convolution methods for the perfusion calculation demonstrated variable perfusion values. It was
worked out that some factors influence the computation significantly: the curve shape, smoothness and
the parametrisation of the transfer function estimation
(e.g., the numbers of poles and zeros). The results of
the automatic perfusion computation are illustrated in
Fig. 4, where the absolute perfusion values are
shown for all three methods (symbolic low-pass of 4th
order, ARX estimation, ARX estimation after gammavariate fit).
y (t ) + a 1 y (t−1) +…+ a na y (t −na) =
(2)
b 1 u( t −nk ) +…+ b nb u (t−nb −nk +1) + e (t )
MPF [ml/100g/min]
The transfer function is then used to simulate the
transfer characteristics of a short imaginary contrast
agent bolus (duration 0.1 s). By dividing the response
peak height by the area under the ventricular attenuation curve, the perfusion is calculated in absolute
values (ml/100g/min).
The assessment of all steps of the processing
pipeline was the main task to achieve insight into the
behaviour of the selected algorithms with respect to
their feasibility and reliability. Seven test data sets
(named KV to YN) provided by a preliminary study
on human males were used for evaluation.
Results
MPF [ml/100g/min]
The parametrisation for sampling and filtering was
optimised at the beginning of the workflow, where a
smooth and shape preserving processing of the raw
curves is needed. For the subsequent curve fitting
operations, the squared errors sum is used as minimisation criterion, which is calculated between the
parametrised model curve and the fitted data. Thus, it
is possible to estimate which model curve fits best to
a certain data set, since all observed curves have apparently differing shapes. The final part of the work
comprises the comparison of the two selected perfusion approaches (upslope method, convolution
method). Figures 3 and 4 summarise the absolute
perfusion results for the upslope and convolution
methods.
KV
LI
LV
ME
NA
SA
200
KV
LI
LV
ME
NA
SA
YN
150
100
50
0
LP4
ARX
gamma-ARX
calculation method (convolution)
Fig. 4: MPF results calculated by three convolution
approaches. All methods show rather good coherence within the data, except for the data sets KV
and ME with the gamma-ARX method.
Future research activities will comprise ameliorations
in the choice of algorithms and in the intelligent recognition of the best performing configuration of processing methods. This work has shown that there lies
potential in the improvement of convolution techniques, while the refinement of the upslope method
made it ready to serve as a reference standard for
evaluation.
Acknowledgements
YN
Supported by the Science Fund established by the
Land Tyrol (TWF).
Literature
ventr.: W
myo.: W
W
L
W L
L
L
G
G
W
L
G
W
curve fitting method
G
L
[1] Baumgartner, C. Messung der cerebralen Durchblutung
mittels Elektronenstrahl-Computer-tomographie, Dissertation, University of Technology, Graz, Austria, 1998.
[2] Madsen MT. A simplified formulation of the gamma variate function. Physics in Medicine and Biology.
1992;37(7):1597–1600.
[3] Miles, KA. Measurement of tissue perfusion by dynamic
computed tomography, Br J Radiol. 1992;64(761):409–
412.
[4] The MathWorks, Inc.: Curve Fitting and Distribution Fitting, http://www.mathworks.com/ products/statistics/examples.html?file=/products/ demos/shipping/stats/cfitdfitdemo.html, 2008. Last visited: 2014-04-29.
[5] Rumberger JA, et al. Use of Ultrafast Computed Tomography to Quantitate Regional Myocardial Perfusion: A
Preliminary Report. J Am Coll Cardiol. 1987
January;9(1):59–69
G
G
Fig. 3: MPF results calculated by the upslope method
depend on the applied curve fitting approach.
Discussion Using the upslope method, it was
demonstrated that the absolute perfusion values are
highly dependent on the model curve shape and the
quality of its fitting. Fig. 3 includes all combinations of
automatic fittings of the Weibull function (W), the low
pass (L) and the gamma-variate (G) model. The results show that some combinations (especially
myocardial gamma-variate fitting) lead to misestimation of the perfusion. In consequence it is strongly ad-
34
KRAFTAUFTEILUNG DER QUADRIZEPSMUSKULATUR BEI ISOKINETISCHEM TRAINING AN DER BEINPRESSE SIMULATIONSSTUDIE MIT OPENSIM
G. Schneider1, M. Krenn1, J. Cvecka2, M. Sedliak2, S. Loefler3, H. Kern3,4, W. Mayr1
1Zentrum
für Medizinische Physik und Biomedizinische Technik, Medizinische Universität Wien, Österreich
2Institut für Körpererziehung und Sport, Komenius Universität Bratislava, Slowakei
3
Ludwig Boltzmann Institut für Elektrostimulation und physikalische Rehabilitation, Österreich
4
Institut für Physikalische Medizin und Rehabilitation, Wilhelminenspital, Österreich
[email protected]
Abstract Die Beinpresse ist in der Muskeltherapie
oft verwendet und liefert eine gelenksschonende
Bewegungsform. Eine computer-gesteuerte Beinpresse ermöglicht die Belastung und Bewegungsabläufe gezielt zu regeln und an den Patienten anzupassen. In dieser Simulationsstudie wurden die erzeugten Kräfte und Aktivierungscharakteristika in der
Quadrizepsmuskulatur mit OpenSim (Stanford University) simuliert. Empirisch ermittelte Bewegungsund Kraftdaten dienten als Grundlage für die Simulation um ein realistische Abbildung der erzeugten
Muskelkräfte zu erhalten. Das Ergebnis zeigt, dass
der Musculus vastus lateralis den größten Kraftanteil
leistet. Ein weiteres Ergebnis zeigt die Winkelabhängigkeit der prozentuellen Kraftaufteilung der einzelnen Muskelköpfe. Die Simulationsergebnisse erlauben eine verbesserte Steuerung der Muskelbelastung.
Keywords OpenSim, Simulation, Oberschenkelmuskel , Beinpresse, Muskelaktivität
Studie kam das Equilibrium Musculotendon Model
nach Millard zur Anwendung [2]. Das Modell wurde
mit empirischen Bewegungs- und Kraftdaten gespeist. Ein Proband (männlich, 28Jahre) führte dafür
eine isokinetische Bewegung mit der linken unteren
Extremität an der Beinpresse aus.
Die ermittelten externen Kräfte (Anpresskräfte auf
Schlitten) wurden nachbearbeitet und in konstante
konzentrische und exzentrische Phasen unterteilt.
Verschieden starke Reaktionskräfte an den Schlitten
der Beinpresse wurden so ermittelt (0-25-50-75100%). Die exzentrische Maximalkraft lag bei 1480 N
und bei konzentrischer Belastung wurde ein Maximum von 1100 N erreicht. Um numerische Probleme,
hervorgerufen durch die scharfen Wendepunkte im
Weg-Zeit Verlauf bzw. der sprunghaften Kraft-Zeit
Kurve zu vermeiden, wurde der Wechsel von der
konzentrischen in die exzentrischen Phase, und umgekehrt, mittels einer Rampenfunktion überlagert.
(A)
Einleitung
Mit einer computer-gesteuerte Beinpresse können
speziellen Beanspruchungs- und Beinbewegungsformen für das Training der Beinmuskulatur realisiert
werde. Neben den üblichen isometrischen und isokinetischen Bewegungsformen bietet diese spezielle
Beinpresse die Möglichkeit der isotonischen und
vibrierenden Trainingsmethode.
Ziel der hier vorliegenden Studie war die Erarbeitung
einer leistungsfähigen Simulation der entstehenden
Muskelkräfte und Muskelaktivierung in den unteren
Extremitäten, im Speziellen der Quadrizepsmuskelgruppe des linken Beines während des Trainings.
(B)
Methoden
Die Beinpresse wurde am Institut für Körpererziehung und Sport, der Komenius Universität in Bratislava Slowakei, entwickelt [4]. Die Bewegung war isokinetisch bei verschiedenen erzeugten externe Kräfte.
Für die Simulation der Muskelkraft und -aktivierung
wurde die Simulationssoftware OpenSim (NIH Center
for Biomedical Computation, Stanford University zur
Modellierung und Simulation biomechanischer Aufgabenstellungen) verwendet [1]. In der präsentierten
Abbildung 1: (A) OpenSim-Model mit eingeblendeter
Quadrizepsmuskulatur, Überlappungen zeigen den
Bewegungsraum; (B) Simulierter Kniewinkel bei isokinetischer Bewegung (schwarz), externe angebrachte Kraft
an der Fußsohle (rot); punktierte Linie zeigt Kniewinkelstellung für Vergleiche in Abb. 2,3.
35
Vorbereitend für die Simulation wurden die Bewegungsdaten mittels Matlab (MathWorks, Inc., Natick,
MA, USA) in Positionskoordinaten der am Fuß des
Modelles fixierten Markerpunkte (Abb. 1A) konvertiert. Diese dienten in weiterer Folge der Simulation
als Input zur Berechnung der jeweiligen Gelenkswinkel für jeden einzelnen Zeitabschnitt der Bewegung
(Inverse Kinematics - IK). Die daraus errechneten
Winkel definieren die Bewegung des Models und
dienen, wie die zuvor überarbeiteten Kraftdaten, in
einem nächsten Schritt als Grundlage für die Computer-Muscle-Control-Analyse (CMC) [3].
Die Ergebnisse der Simulation lieferten die Aktivierungs- und Kraftverläufe der Beinmuskeln in Abhängigkeit der aufgebrachten, externen Kraft und vorgegebenen Bewegung. In weiterer Folge werden nur
Musculus vastus lateralis (VL), Musculus vastus intermedius (VI), Musculus vastus medialis (VM) und
Musculus rectus femoris (RF) betrachtet.
Muskelkraft und Aktivierung wurde während der konzentrischen und exzentrischen Phase bei einem
Kniewinkel von -78° und -68° ausgewertet. Wobei
aus den drei Durchgängen die Mittelwerte berechnet
wurden.
Abbildung 3: Aktivierung des VL in Abhängigkeit der
externen Kraft bei einer Kniewinkelstellung von
-68° (rot) und -78° (blau)
Diskussion
Der Hauptanteil der Kraftentwicklung in der Quadrizepsmuskulatur beim Training an der Beinpresse
wird durch den VL realisiert. Studien [5, 6] dokumentieren den signifikanten Unterschied von VM-Kraft zu
den anderen Muskelköpfen der Quadrizepsmuskulatur. Durch die Winkelstellung des Fußes in Relation
zur Tibia kann man die Aufteilung zwischen VM und
VL beeinflussen. Eine geringere Muskelaktivierung
bei deutlich höherer Kraftproduktion in der exzentrischen Phase [4] wird auch in dieser Simulation berücksichtigt.
Ergebnisse
Eine Erhöhung der erzeugten Kräfte auf den Schlitten der Beinpresse spiegelt eine deutliche Steigerung
der einzelnen Muskelkräfte im Oberschenkelmuskel
wider. Der Vergleich der Muskelköpfe des Quadrizeps (Abb. 2) zeigt, dass der größte Anteil (~40%)
durch den VL übernommen wird. Die Anteile von VI,
VM und RF erzielen ähnliche Wert und übernehmen
je Muskel ca. 20%.
In der Gegenüberstellung der exzentrischen und
konzentrischen Phase konnte eine Steigerung der
Muskelkräfte um rund 20% bei einer Kniewinkelstellung von -78° und von rund 40% für -68° beobachtet
werden. Die Aktivierung des VL ist vor allem abhängig von der Bewegungsrichtung (Abb. 3), aber auch
Unterschiede bei beiden untersuchten Kniewinkeln
von -68° und -78° sind erkennbar.
Danksagungen
Die Studie wurde unterstützt durch den European
Regional Development Fund, EU-Interreg IVa 20072013: N00033 (MOBIL – Mobility of Elderly).
Literatur
Abbildung 2: Aufteilung der Muskelkräfte in der Quadrizepsmuskulatur bei 75% maximal Kraft und Kniewinkelstellung
von -68° (rot) und -78° (blau)
36
[1] Delp SL, Anderson FC, Arnold AS, et al. Guendelman E, Thelen DG. OpenSim: Open-source
Software to Create and Analyze Dynamic Simulations of Movement. IEEE Transactions on Biomedical Engineering. (2007).
[2] Millard, M., Uchida, T., et al. (2013). Flexing computational muscle: modeling and simulation of
musculotendon dynamics. Journal of Biomechanical Engineering, 135(2), 21005.
[3] Hicks, J. B. (2011). User´s Guide - OpenSim 3.0
[4] Cvecka, J., Hamar, D., Trimmel, L., Vogelauer,
M., Bily, W., Löfler, S., … Kern, H. (2009). Einfluss von serial stretch loading auf die Effektivität
des isokinetischen Krafttrainings. Basic Applied
Myology, 19(4), 175–180.
[5] Shweta, S., Priyaranjan, M., & Sanhu, J. S.
(2011). Peak Torque and IEMG activity of Quadriceps femoris muscle at three different knee
angles in a collegiate population, 9(1), 40–45.
[6] Alkner, B. A., Tesch, P. A., & Berg, H. E. (2000).
Quadriceps EMG/force relationship in knee extension and leg press. Medicine & Science in
Sports & Exercise, 32(2), 459–463.
„Studierendenwettbewerb Teil 2“
37
38
COMPLIANCE MONITORING FÜR DAS ELEKTROSTIMULATIONSTRAINING IN DER HEIMTHERAPIE
M. Hendling1, M. Krenn1, M. Haller1, S. Loefler2, H. Kern2,3, W. Mayr1
1Zentrum
für Medizinische Physik und Biomedizinische Technik, Medizinische Universität Wien, Österreich
Institut für Elektrostimulation und physikalische Rehabilitation, Österreich
3Institut für Physikalische Medizin und Rehabilitation, Wilhelminenspital, Österreich
2Ludwig Boltzmann
[email protected]
Abstract Muskeltraining mittels neuromuskulärer
Elektrostimulation als Heimtherapie erfordert hinzureichende Kontrolle. Im Zuge einer klinischen Studie
wurde die vordere Oberschenkelmuskulatur stimuliert
bei einer Gruppe von Senioren über einen Zeitraum
von 9 Wochen. Die Auswertung der Compliance von
10 Probanden (7 weiblich) wird hier präsentiert. Die
Compliance-Software wurde in Visual Studio C#
programmiert und wertet die Stimulationsparameter
eines selbstgebauten spannungsgesteuerten Stimulators aus, die während des Trainings aufzeichnet
wurden. Die Ergebnisse aller Probanden ergaben
eine mittlere Stimulationsspannung von 20,47 V,
sowie einen mittleren Strom von 56,02 mA.
Die Überwachung des Heimtrainings ist ein wichtiger
Faktor für die quantitative Evaluation des Studienerfolges.
chert. Während des Trainings konnten die Amplitude
frei eingestellt werden.
Die Compliance Daten umfassten den eingestellten
Amplitudenwert, sowie gemessene Spannungs- und
Stromimpulse. Insbesondere die Strominformationen,
wie beispielsweise die Ladung, bilden wichtige Parameter für die Kontrolle der Muskelaktivierung bei
spannungsgesteuerten Stimulatoren. Zur Analyse
wurde eine Evaluationssoftware in Visual Studio C#
(Microsoft, Redmond, USA) programmiert. Die wichtigsten Messdaten der Compliance waren mittlere
Stimulationsspannung und -strom.
Für die Auswertung wurde die Compliance von 10
Teilnehmern (7 weiblich) einer laufenden Studie herangezogen. Trainiert wurde 9 Wochen, mit je 2 Sitzungen pro Woche in den ersten 2 Wochen und 3
Sitzungen pro Woche in der verbleibenden Zeit. Eine
Sitzung bestand aus 3 Serien, wobei eine Serie in
den ersten 2 Wochen 6 Minuten und anschließend
10 Minuten, d.h. 75 Kontraktionen pro Bein (Stimulationszeit: 3,5 s, Pause: 4 s), dauerte. Die Stimulationsimpulse waren rechteckig, biphasisch und spannungsgesteuert mit einer Pulsbreite von 2x300 µs
und einer Rate von 60 Impulsen pro Sekunde.
Keywords Evaluationssoftware, Stimulator Design
Einleitung
Viele Studien zeigen, dass sich im Alter die Muskelkraft im Durchschnitt bis zu 40% reduziert [1] bei
isometrischer Kontraktion der Knieextensoren im
Vergleich von 25 zu 80 jährigen Probanden. Muskeltraining kann zu einer beträchtlichen Verbesserung
der Muskelkraft, Leistung und funktionalen Fähigkeiten von älteren Personen führen [2,3]. Auch neuromuskuläre Elektrostimulation erzielt positive Effekte
und trägt bei reduzierter Mobilität zu einer Steigerung
der Muskelkraft bei [4,5].
Ergebnisse
Die Ergebnisse aller Teilnehmer ergaben eine mittlere gemessene Spannung von 20,47 V und einen
mittleren gemessenen Strom von 56,02 mA (Tabelle
1). Die Auswertung des gesamten Trainings von
Subjekt A219 (Abbildung 2) ergab Schwankungen
bei Spannung und Strom von jeweils +/- 17% und +/14%. Pro Burst wurde ein Stimulationsimpuls aufgezeichnet (Abbildung 1-B,C). Abbildung 1-A zeigt die
manuell eingestellte Amplitude von jedem Burst während einer Trainingsserie (10 Minuten, 75 Bursts).
Das Ziel dieser Studie war es die Intensität von
Heimtherapie mittels Elektrostimulation anhand von
Compliance Daten zu erfassen.
Methoden
Das Stimulationstraining wurde mit einem selbstgebauten, programmierbaren, spannungsgesteuerten
Stimulator an der vorderen Oberschenkelmuskulatur
durchgeführt [6]. Das System setzt sich aus einer
Kontrolleinheit und zwei Kanälen zusammen. Unter
Verwendung eines seriellen Bussystems und einer
individuell angefertigten Software wurden die Stimulationsparameter und das Trainingsprotokoll programmiert. Einzelne Trainingsserien beider Kanäle
wurden auf einer Secured Digital (SD) Karte gespei-
Tabelle 1: Mittlere (m.) Spannung und Strom
(Standardabweichung) aller Trainingssitzungen
aller Teilnehmer.
Proband
A219
A220
A224
A227
39
m. Spannung (V)
17,54 (2,98)
12,61 (1,95)
30,22 (8,12)
22,20 (3,44)
m. Strom (mA)
57,10(7,92)
43,53 (10,47)
71,85 (18,06)
48,75 (5,88)
A230
B009
B017
B018
B019
B020
Mittelwert
(Std)
22,35 (3,95)
27,97 (2,72)
15,93 (2,83)
16,62 (3,76)
20,22 (2,47)
19,05 (2,97)
49,02 (5,56)
53,73 (6,71)
54,06 (4,93)
58,89 (5,02)
62,50 (5,27)
60,81 (7,06)
20,47 (5,43)
56,02 (8,11)
Diskussion
Monitoring von Heimtherapie ist wichtig, um den
Studienerfolg zu evaluieren. Die Ergebnisse liefern
wichtige Informationen über die Handhabung des
Stimulators durch den Anwender. Fehlbedienung und
zu schwaches Elektrostimulationstraining können
erkannt werden. Durch die genaue Messung von
Stimulationsspannung und -strom können auch
Elektrodenverschleiß bestimmt werden.
Danksagungen
Die Studie wurde unterstützt durch den European
Regional Development Fund, EU-Interreg IVa 20072013: N00033 (MOBIL – Mobility of Elderly).
Abbildung 2: Durchschnittliche Amplitude der gemessenen Spannung (A) und des Stromes (B). Die
Daten beziehen sich auf die ersten 48 Trainingsserien (16 Tage) des Teilnehmers A219.
Literatur
Abbildung 1: Stimulationsstrom (A) und -spannung
(B), mit einer Sampling Rate von 83,3 kS/s. Eingestellter Amplitudenwert (C) einer Trainingsserie. Drei
Impulse (Burst 1, Burst 38, Burst 75) sind dargestellt.
Die Daten beziehen sich auf die Trainingsserie 48 des
Teilnehmers A219.
40
[1] Lauretani F, Russo CR, Bandinelli S et al.,
“Age-associated changes in skeletal muscles
and their effect on mobility: an operational diagnosis of sarcopenia,” J Appl Physiol, vol. 95,
no. 5, pp. 1851-1860, 2003.
[2] Zampieri, S., Pietrangelo, L., Loefler, S.,
Fruhmann, H., Vogelauer, M., Burggraf, S., ...
& Kern, H. Lifelong physical exercise delays
age-associated skeletal muscle decline. The
Journals of Gerontology Series A: Biological
Sciences and Medical Sciences, 2014
[3] Melov S., Tarnopolsky MA, et al., “Resistance
Exercise Reverses Aging in Human Skeletal
Muscle,” PLoS One, vol. 2, no. 5, 2007.
[4] Kern, H., Loefler, S., Hofer, C., Vogelauer, M.,
Burggraf, S., ..., Zampieri, S. FES Training in
Aging: interim results show statistically significant improvements in mobility and muscle fiber
size. European Journal of Translational Myology, 22(1-2), 61-67, 2012
[5] Bax L, Staes F, Verhagen A, Does neuromuscular electrical stimulation strengthen the
quadriceps femoris? Sports medicine, vol. 35,
no. 3, pp. 191–212, 2005.
[6] Krenn M, Haller M, Bijak M, Unger E, Hofer C,
Kern H, Mayr W. Safe Neuromuscular Electrical Stimulator Designed for the Elderly. Artificial Organs vol. 35, no. 3, pp. 253–6, 2011.
SELEKTIVITÄT DER TRANSKUTANEN ELEKTROSTIMULATION DER
LUMBALEN HINTERWURZELN BEI VERÄNDERUNG
DER STIMULATIONSHÖHE
A. Toth1, M. Krenn1, S.M. Danner1,2, U.S. Hofstoetter 1, K. Minassian1, W. Mayr1
1Zentrum
für Medizinische Physik und Biomedizinische Technik,
Medizinische Universität Wien, Österreich
2Institut für Analysis und Scientific Computing, Technische Universität Wien, Österreich
[email protected]
AbstractBei epiduraler und transkutaner Elektrostimulation des lumbalen Rückenmarks können monosynaptische Posterior Root-Muscle (PRM) - Reflexe
ausgelöst werden. Ziel dieser Studie war es, die Selektivität der Aktivierung von Reflexantworten in
Quadrizeps (Q) und Trizeps surae (TS) bei der transkutanen Stimulation nachzuweisen. Dafür wurde mit
einem Elektroden-Array die Stimulationslage rostrokaudal verändert. Das Array mit 7 Levels wurde am
Rücken in der Höhe um die Wirbelköper T11/T12 angebracht. Die Reflexe wurden elektromyographisch
an den verschiedenen Muskelgruppen beider Beine
gemessen. Durch die unterschiedlichen Stimulationslevels konnten eine selektive Stimulation erreicht und
das Rekrutierungsmuster beeinflusst werden. Im Mittel erfolgte eine frühere Aktivierung von Q von rostraleren Stimulationslevels und von TS von kaudaleren
Positionen.
Spastizität [1,2] bis hin zur Verbesserung der Motorfunktionen und Generierung von bilaterale Extension
und rhythmische Bewegungsmustern [3]. Um die Einsatzmöglichkeiten der transkutanten Variante weiter
zu verbessern, ist unter anderem eine möglichst selektive Stimulationswirkung notwendig. Diese Selektivität wurde in der vorliegenden Arbeit durch die sogenannten Posterior Root-Muscle (PRM) Reflexe getestet [4]. Unser besonderes Interesse galt dabei der
Rekrutierung von Quadrizeps (Q) und Trizeps surae
(TS), zwei Muskelgruppen mit getrennten Innervationszonen, und zwar L2–L4 im Falle von Q und L5–S2
bei TS. Unsere Arbeitshypothese war, dass die Stimulation von rostraleren Levels bevorzugt PRM Reflexe
in Q auslösen würde, während kaudalere Lagen eher
zu Antworten in TS führen würden.
Methoden
Keywords Posterior Root-Muscle Reflexe, Rückenmarkstimulation, Elektroden-Array
Zehn gesunde Probanden (5 Frauen) wurden für die
Studie rekrutiert. Alle Messungen wurden in Rückenlage durchgeführt.
Stimulations-Setup: Der Stimulationsaufbau bestand
aus jeweils drei Elektroden mit einem Durchmesser
von 1 cm pro Level (T-60, Leonhard Lang GmbH, AT),
welche am Rücken übereinander bis zu 4cm rostral
und 8cm kaudal in Bezug auf die Wirbelkörper T11T12 angebracht wurden (Abb. 1). Am Abdomen komplettierten zwei große Gegenelektroden (8 x 13cm,
STIMEX, schwa-medico GmbH, GER) den Aufbau.
Über einen stromkontrollierter Stimulator (Stimulette
R2X, Schuhfried Medizintechnik GmbH, AT) wurden
biphasische Stimulationsimpulse mit einer Pulsbreite
von 1 ms pro Phase appliziert.
Datenaufzeichung: Muskelantworten von Quadriceps
(Q), und Triceps surae (TS) wurden aufgezeichnet.
Messprotokoll: Stimulationsintensitäten bis zu 125 mA
wurden – je nach Toleranzgrenze des Probanden – in
5 mA Schritten appliziert. Ein Doppelstimulus mit einem Interstimulusintervall von 30 ms, gefolgt von 3
Einzelstimuli im Abstand von 5 s, wurde pro Intensität
appliziert. Die Doppelpulse wurden verwendet, um die
Stimulation afferenter Fasern nachzuweisen bzw.
mögliche direkte Aktivierung von efferenten Fasern zu
detektieren und von der weiteren Analyse auszuschließen [4].
Einleitung
Die Anwendungsgebiete der epiduralen und transkutanen Rückenmarkstimulation in der Rehabilitation
sind vielschichtig und reichen von der Kontrolle von
Abbildung 1: Electrode-Array. Jedes der 7 Levels besteht aus drei kombinerten Ag/AgCl Elektroden.
41
1.2
Normalisierte Rekruitmentfläche
Q
TS
1
0.8
0.6
0.4
0.2
0
- 8cm - 6cm - 4cm - 2cm T11-12 + 2cm + 4cm
Abbildung 2: Gemittelte Werte der auf das Maximum
über alle Levels normierten Rekrutierungsfläche aller
Probanden (n=20) für Q und TS. Die Errorbars zeigen
die Standardabweichung
Daten Analyse: Peak-to-peak (PTP) Amplituden der
Reflexantworten wurden gemessen. Rekrutierungskurven der PTP Amplituden wurden erstellt und die
Fläche darunter berechnet. Die Datenanalyse erfolgte
offline mit Matlab R2013a (MathWorks Inc., Natick,
MA, USA).
Ergebnisse
Im Mittel wurden bei Stimulation von den rostraleren
Stimulationslevels PRM Reflexe in Q mit niedrigeren
Schwellen ausgelöst, während die bevorzugte Aktivierung von TS an mehr kaudal gelegenen Levels (von 4 bis –8 cm relativ zu Level 0) zu finden war. Level 0
war durch eine annähernd gleichzeitige Aktivierung
beider Muskelgruppen ausgezeichnet. Durch die gemittelte Flächenberechnung unter den Rekrutierungskurven zeichnete sich eine flächenmäßige Diskrepanz
der zwei Muskelgruppen ab (Abb.2). Es kann somit je
nach Stimulationslevel von einer vorherrschenden Stimulation der oberen und/oder unteren Hinterwurzeln
ausgegangen werden.
Die höchsten Amplituden in Rückenlage konnten für
Q bei –2 cm und für TS bei +6 cm erzielt werden.
Abbildung 3 verdeutlicht die selektive Aktivierung von
Q und TS bei verschiedenen Stimulationslevels.
Abbildung 3: Selektive Muskelrekrutierung an den 7
verschiedenen Levels anhand eines Probanden bei einer Stimulationsintensität von 55mA
Literatur
[1] M.M. Pinter, F. Gerstenbrand, and M.R.
Dimitrijevic, “Epidural electrical stimulation of
posterior structures of the human lumbosacral
cord: 3. Control Of spasticity,” Spinal cord the
official journal of the International Medical
Society of Paraplegia, 38:9, pp. 524–531, 2000.
[2] U.S. Hofstoetter, W.B. McKay, K.E. Tansey , W.
Mayr, H. Kern, K. Minassian. Modification of spasticity by transcutaneous spinal cord stimulation in
individuals with incomplete spinal cord injury. J
Spinal Cord Med. 37(2):202-11, 2014
[3] M.R. Dimitrijevic, Y. Gerasimenko, and M.M.
Pinter, “Evidence for a spinal central pattern
generator in humans.,” Annals Of The New York
Academy Of Sciences, 860:1, pp. 360–376,
1998.
[4] K. Minassian, I. Persy, F. Rattay, M.R. Dimitrijevic,
C. Hofer, and H. Kern, “Posterior root- muscle reflexes elicited by transcutaneous stimulation of the
human lumbosacral cord,” Muscle Nerve, vol. 35,
no. 3, pp. 327- 336, 2007.
Diskussion
Es konnte gezeigt werden, dass eine selektive Stimulation nahe der Aktivierungsschwellen möglich ist. Daraus kann man eine vorherrschende Stimulation der
lumbalen Rückenmarksegmente L2 - L4 bzw. L5 - S2,
je nach Stimulationslevel, ableiten.
Somit erfolgt mit der Variation der Stimulationshöhe
durch die anatomischen Gegebenheiten auch eine
Verschiebung des elektrischen Feldes.
Danksagungen
Diese Studie wurde von der Wings for Life Stiftung
für Rückenmarksforschung, Projektnummer: WFL
AT007/11, und vom Wiener Wissenschafts-, Forschungs- und Technologiefond, Projektnummer:
LS11-057, unterstützt.
42
PREVENTING FALLS: MISSION POSSIBLE!
AN ICT APPROACH TO ASSESS FALL RISK IN OLDER PEOPLE
Andreas Ejupi1,2
1
Austrian Institute of Technology, Assistive Healthcare Information Technology Group, Austria
2
Vienna University of Technology, Austria
[email protected]
Abstract Falls are common and the leading cause
of injury-related death and hospitalisation in old age.
Due to limited health care resources, less expensive
and objective fall risk assessments are required. A
novel sensor-based fall risk test battery was developed using a combination of 3D-depth sensor and a
3D-accelerometer. Preliminary results demonstrate
the feasibility of the assessment which was conducted with 135 community-living older people in a laboratory setting and 30 older people in a regular daily life
setting. Temporal and spatial fall risk parameters
were automatically extracted from the sensor signals
to identify people at high risk of falling.
Keywords Falls, Sensor-based fall risk assessment, Accelerometer, Microsoft Kinect, Exergaming
Figure 1: Application areas of sensor-based fall risk
assessments and requirements for in-home assessments [4]
Introduction
Falls in older people are common and a major public
health problem. More than 30% of the people older
than 65 years and more than 50% in the age group
above 80 years fall at least once a year [1]. Falls are
the most frequent cause of injury-related hospitalization [2]. Globally, about 37.3 million falls require medical attention and 424 000 individuals die from falls
every year. Falls can be attributed to a wide variety of
causes, with poor balance, limited mobility and slow
reactions being commonly reported [1-2]. For a targeted and tailored fall prevention program it is necessary to identify people at high risk and to accurately
determine their individual fall risk factors first. Standard clinical fall risk assessments are often described
as subjective and qualitative [3]. Because of limited
health care resources objective test equipment (e.g.
force platforms or electronic walkways) is not always
available. In addition, such clinical assessments usually have to be administered by a trained health professional. Quick, easy to administer and simple tests
are needed which can be applied by the individual to
assess fall risk on a regular basis.
Methods
Within the project iStoppFalls [5] a directed routine
fall risk assessment (further referred to as
iStoppFalls-Assessment) has been developed, aiming to design a test which can be used in a semisupervised clinical setting and unsupervised home
setting. In the assessment, which uses exergaming
technologies, the participant is represented as an
avatar on the TV screen and can control the avatar’s
movement with the Microsoft Kinect (Fig. 2). The
iStoppFalls-Assessment consists of 1) three balance
tests (semi-/near-/full tandem test) in which participants have to stand for 30 seconds under different
challenging conditions 2) two reaction tests were
participants have to act as fast as possible and 3) a
five times sit-to-stand test. Data are recorded with a
3D-depth sensor (i.e. Microsoft Kinect) and a bodyworn 3D-acclerometer (Philips Research).
For my doctoral thesis I tested 135 communitydwelling older adults living in the area of Sydney,
Australia. The sensor-based iStoppFalls-Assessment
and standard clinical fall risk assessments (e.g. Physiological Profile Assessment, Timed Up and Go) were
conducted with the participants visiting the laboratory.
My work focuses on the feasibility of sensor-based
fall risk assessments. Low-cost and portable sensors
hold great promise for more objective, regular and
task-specific assessments in clinical and daily life
settings. Figure 1 shows the application areas of
sensor-based fall risk assessments and lists the requirements for these new technological tests.
43
er to complete the five transitions (+2000ms). More
fallers were not able to stand for 30 seconds in the
balance tests. To date, 23 (out of 30) participants
performed the iStoppFalls-Assessment 38 times on
their own in the first two months of installation.
Discussion
The feasibility of a sensor-based, low-cost and portable fall risk assessment to identify people at high risk
of falling has been shown. The iStoppFallsAssessment is simple, quick and easy to administer
and therefore can be used in a semi-supervised clinical or unsupervised home setting. Recent technological fall risk studies have used accelerometers in
laboratory settings before [3]. In this research the
Microsoft Kinect, a commercially available consumer
device and a 3D-accelerometer, in combination with
an assessment using exergaming technology was
used. With this combination temporal and spatial
parameters were extracted using specifically developed software and algorithms. The preliminary findings are in agreement with the literature on falls and
ageing. A body of literature exists, that demonstrates
that slower reaction, a longer sit-to-stand time and an
increased postural sway is related to a higher risk of
falling [1-2,4].
Figure 2: Schematic representation of the sensorbased iStoppFalls-Assessment [6]
The inclusion criteria were living in the community,
aged 65 years or older and being ambulant with or
without the use of a walking aid. The exclusion criteria were: medically unstable, suffering from major
cognitive impairment (Mini-Cog < 3), neurodegenerative disease or color blindness. In addition to the
laboratory tests, a subsample of 30 participants got
the iStoppFalls-Assessment system installed into
their homes and were instructed to perform the unsupervised assessment on a regular basis over the
next 4 months. This research is ongoing and will be
running until August 2014.
Future research will examine the predictive ability of
the extracted fall risk parameters to identify people
with a high risk of falling from the described unsupervised home assessment data.
Literature
[1] M. E. Tinetti and C. Kumar, “The Patient Who
Falls,” Journal of the American Medical Association, vol. 303, no. 3, pp. 258–266, 2010.
[2] K. Delbaere, J. C. T. Close, J. Heim, P. S. Perminder, H. Brodaty, M. J. Slavin, N. A. Kochan
and S. R. Lord, “A multifactorial approach to understanding fall risk in older people.,” Journal of
the American Geriatrics Society, vol. 58, no. 9,
pp. 1679–85, 2010.
[3] J. Howcroft, J. Kofman, and E. D. Lemaire, “Review of fall risk assessment in geriatric populations using inertial sensors.,” vol. 10, no. 1, p. 91,
2013.
[4] A. Ejupi, S. R. Lord and K. Delbaere, “New
methods for fall risk prediction.,” Current Opinion
in Clinical Nutrition and Metabolic Care, forthcoming, 2014.
[5] “iStoppFalls, a fall prevention Project.” [Online].
Available: http://www.istoppfalls.eu.
[6] A. Ejupi, M. Brodie, Y. J. Gschwind, D. Schoene,
S. R. Lord and K. Delbaere, “Choice Stepping
Reaction Time test using Exergame technology
for fall risk assessment in older people”, in review, 2014.
Data acquisition and processing
During the iStoppFalls-Assessment skeleton data of
anatomical landmarks were recorded using the Microsoft Kinect Software Development Kit with a sampling rate of 30 Hz. In addition, 3D-accelerometer
(ADXL362, ± 8 g) data were acquired at a sampling
rate of 50 Hz with a wearable device from Philips
Research Europe. An analysis software was developed in MATLAB (R2013b) to automatically extract
fall risk related temporal and spatial parameters from
the sensor signals for each test.
Results
Preliminary results demonstrate the feasibility of the
sensor-based iStoppFalls-Assessment to classify
between fallers and non-fallers. 44 participants had a
fall within the past 12 months and 91 didn’t have a
fall. Temporal and spatial parameters were automatically extracted from the Microsoft Kinect and accelerometer signal. Based on the laboratory assessment
fallers showed a significant lower reaction time
(+150ms) compared to the non-fallers in the reaction
tests [6]. For the sit-to-stand test fallers needed long-
44
SIMULATION AND EVALUATION OF THE CRYOABLATION PROCEDURE
FOR TREATMENT OPTIMIZATION OF CARDIAC ARRHYTHMIAS
Michael Handler
Institute of Electrical and Biomedical Engineering, UMIT, 6060 Hall i. T., Austria
E-Mail: [email protected]
Abstract Cardiac cryoablation is a minimally
invasive procedure for the treatment of cardiac
arrhythmias by cooling responsible tissues to
freezing temperatures. Computer simulations can
be used to analyze and improve different cryoablation scenarios and possible applicator geometries.
In this thesis a new simulation framework was
created considering characteristic phases of the
refrigerant and the blood stream surrounding the
applicator during cardiac cryoablation, which was
verified by in-vivo measurements and data from
literature. Using this framework realistic temperature distributions of simulated cardiac cryoablation
scenarios can be obtained and valuable recommendations for clinical applications can be made.
tabolism in living tissue, Pennes’ bioheat equation
was selected in combination with the effective heat
capacity model to consider the phase change of
tissue/blood over a given temperature range [2].
To reduce the loss of cooling capacity to the surrounding blood stream for a loop shaped applicator
variant [3], effects of different insulation layers
were analyzed considering the anisotropic thermal
properties of the applicator and the insulation layer. Stationary temperature distributions were used
to evaluate the cooling flux between applicator and
both tissue and blood [4] (see Figure 1).
Keywords Cardiac cryoablation, simulation, finite
element method, applicator geometries, temperature
profiles
Introduction
Cardiac cryoablation is a minimally invasive procedure for the treatment of cardiac arrhythmias by
cooling tissue responsible for the arrhythmia to
freezing temperatures. Advantages of cardiac cryoablation compared to the commonly applied radiofrequency (RF) ablation by heat is e.g. less
endothelial disruption, cryoadhesion of the applicator to the target ablation zone and the ability to
evaluate ablation sites before the actual treatment
(cryomapping). However, longer intervention durations and higher recurrence rates compared to RF
ablation were reported [1]. To analyze and improve
different cryoablation scenarios and the influences
of variations in applicator geometries, computer
simulations can be used prior to expensive and
time-consuming validation experiments. Compared
to simulations of ablation procedures in other fields
of cryosurgery different cooling techniques have to
be considered in the simulation of cardiac cryoablation as well as the direct contact with streaming blood surrounding the applicator.
Figure 1: Simulated temperature distribution of
loop shaped applicator with outer insulation layer
[4]. Isolines are plotted in 10°C steps (cyan isoline:
0°C). The same colormap as shown in Figure 3
was used.
For a tip applicator characteristic temperature profiles at the tip and at the epicardium as well as
refrigerant flow rates during cardiac cryoablation
were obtained from in-vivo experiments. The recorded flow rates were used to estimate the cooling
capacities of characteristic phases of the refrigerant, which was consequently applied as time and
temperature dependent boundary conditions at the
inner surface of the applicator. The temperature
recordings were used to verify the temperature
distribution provided by the simulation. In addition
material properties and boundary conditions of the
model were adapted based on the given in-vivo
data [5].
Effects of different tip applicator positioning at the
cryoablation procedure were analyzed and temperature profiles at the applicator tip [6] and at the
epicardium were used to verify the simulations.
Methods
In this thesis a simulation environment based on
the finite element method was created to simulate
the temperature distribution of the applicator, the
treated myocardial tissue and the surrounding
blood during cardiac cryoablation scenarios. To
consider heat contribution by perfusion and me-
45
The created model was used to analyze transmural myocardial temperature profiles for different
ablation scenarios with multiple freeze thaw cycles,
focusing on different effects responsible for tissue
injury [7] (see Figure 2).
Investigating simulated transmural temperature profiles for double freeze-thaw scenarios, variations of
effects responsible for cell death were identified depending on durations of the freeze-thaw phases [7].
Modifications of applicator geometries could be assessed (insulation layers [4] and dimensioning of
refrigerant outlets [3] on loop shaped applicators; increase of heat exchange surfaces between refrigerant and tip applicator [8]) and reasonably discussed.
Discussion
In this work a powerful simulation framework was
developed and evaluated, enabling the simulation
of realistic temperature distributions of cardiac
cryoablation scenarios and valuable recommendations can be made for the clinical application.
Although exact dimensions of ablated tissue could
not be extracted from simulated temperature profiles yet, lethal temperature boundaries known
from literature could be successfully verified.
Results of this work are already applied to other
research questions focusing on the simulation of
electrophysiological changes at cell death during
cardiac cryoablation.
Figure 2: Transmural temperature profiles over
time for different depths below the tip applicator for
a double freeze-thaw cryoablation protocol of
300 s freezing with an interim thawing phase of
10 s after 150 s first freezing phase [7]. The green
lines represent the -20°C, -10°C and 0°C-isolines
from the bottom to the top. The same colormap as
shown in Figure 3 was used.
Additionally a new tip applicator prototype was
simulated to analyze the effects of a design modification to increase the surface for heat exchange
with the refrigerant [8].
Acknowledgement
This work is funded by the K-RegioProject of the Standortagentur Tirol, Innsbruck, Austria and by the European Regional Development Fund (ERDF).
References
[1] B. Schwagten, Y. Van Belle and L. Jordaens, "Cryoablation:
how to improve results in atrioventricular nodal reentrant
tachycardia ablation?," Europace, vol. 12, no. 11, pp. 15221525, November 2010.
[2] J. Liu, "Bioheat transfer model," John Wiley & Sons, Inc.,
2006.
[3] M. Seger, G. Fischer, M. Handler, M. Stöger, C. Nowak, F.
Hintringer, G. Klima and C. Baumgartner, "Achieving elongated lesions employing cardiac cryoablation: A preclinical
evaluation study," Cryobiology, no. 65, pp. 145-150, 2012.
[4] M. Handler, G. Fischer, M. Seger, R. Kienast, A. Schütte
and C. Baumgartner, "Effect of insulating layers in loop
applicators for cardiac cryoablation," in BIOTECHNO 2012:
The Fourth International Conference on Bioinformatics,
Biocomputational Systems and Biotechnologies, 2012.
Figure 3: Simulated temperature distribution of a
tip applicator prototype after 4 min freezing [8]. Isolines are plotted in 10°C steps. The outer and inner
white line are the 0°C and -10°C isoline.
[5] M. Handler, G. Fischer, M. Seger, R. Kienast, C.-N. Nowak,
D. Pehböck, F. Hintringer and C. Baumgartner, "Computer
simulation of cardiac cryoablation: Comparison with in vivo
data," Medical Engineering & Physics, no. 35, pp. 17541761, 2013.
Results
Simulated temperature profiles showed a high correlation with temperature data registered at the applicator tip in in-vivo experiments and additionally similarities of ice ball dimensions in the simulation and lesion
dimensions could be verified by literature [5].
For different applicator positioning during a simulated
cryoablation scenario high variations in iceball dimensions were revealed, however, only small variations in the temperature profiles of the applicator tip
were seen in the simulation [6], which is consistent
with findings from the literature.
[6] M. Handler, R. Kienast, G. Fischer, M. Seger, C.-N. Nowak,
M. Popovscaia, F. Hanser and C. Baumgartner, "Effects of
tip-applicator positioning on recorded temperature profiles in
cryoablation procedures estimated by finite element
modeling," Biomed Tech 2013, 2013.
[7] M. Handler, G. Fischer, R. Kienast, M. Seger, F. Hanser and
C. Baumgartner, "Simulation and evaluation of freeze-thaw
cryoablation scenarios for the treatment of cardiac arrhythmias," Physics in Medicine and Biology, 2014 (submitted).
[8] M. Handler, G. Fischer, R. Kienast and C. Baumgartner,
"Simulating effects of increased heat transfer surfaces between applicator tip and refrigerant in cardiac cryoablation,"
in ÖGBMT 2014, Hall in Tyrol, 2014 (submitted).
46
BIG DATA IM KRANKENHAUS - RAHMENKONZEPT UND ARCHITEKTUR
FÜR DIE SEKUNDÄRNUTZUNG KLINISCHER ROUTINEDATEN
W.O. Hackl1, E. Ammenwerth1
1
Institut für Biomedizinische Informatik, UMIT - Private Universität für Gesundheitswissenschaften, Medizinische Informatik und Technik, Hall in Tirol, Österreich
[email protected]
Abstract Auf Basis theoretischer Überlegungen
und Literaturstudien wurden ein allgemeines Rahmenkonzept und Vorgehensmodell sowie ein konkreter Leitfaden zur Integration und Erschließung klinischer Routinedaten für patientenübergreifende Analysen erstellt. Diese wurden in einer umfassenden
Fallstudie validiert und vertieft. Die theoretischen
Konzepte wurden dabei auch praktisch umgesetzt.
Es wurde ein Nursing Data Mart und Nursing Intelligence System geschaffen, welches nun in den Routineeinsatz auf Managementebene übernommen
wurde und die patientenübergreifende Analyse von
derzeit über 30 Millionen Datensätzen aus mehreren
Jahren an Pflegeprozessdokumentation für eine
Vielzahl von Fragestellungen ermöglicht.
erfolgreichen Umsetzung einer Sekundärnutzung
behandlungsprozessbezogener, klinischer Routinedaten [6]. Ziel der vorgestellten Dissertation [7] war
es daher, einen sowohl wissenschaftlich fundierten
als auch praxistauglichen, umfassenden Ansatz zur
Erschließung und Sekundärnutzung von Routinedaten aus der klinischen und pflegerischen Prozessdokumentation zu erarbeiten.
Methoden
Abb. 1 gibt einen Überblick über die einzelnen Zielsetzungen und die methodische Vorgehensweise:
Keywords Sekundärnutzung, klinische Routinedaten, Klinische Datenintegration, Clinical Intelligence
Einleitung
Der Übergang ins 21. Jahrhundert markierte den
Übergang vom technologischen ins Informationszeitalter. Noch nie war es so einfach, Daten zu generieren, zu kommunizieren und zu verarbeiten, um daraus Informationen und neues Wissen abzuleiten.
Daten werden daher als das "Gold der Zukunft" bezeichnet und der Begriff BIG DATA, als Ausdruck der
hohen Erwartungen, die bezüglich der Nutzung der
nun verfügbaren, enormen Datensammlungen bestehen, ist in aller Munde [1]. In Medizin und Pflege
fällt während diagnostischer, therapeutischer und
Nachsorge-Prozesse eine gewaltige Fülle an Routinedaten an, die bislang fast ausschließlich kasuistisch, also für den jeweiligen Behandlungsfall, genutzt
werden. Es wird aber erwartet, dass auch in diesen
Daten noch viel unentdecktes Potenzial für die Beantwortung einer Vielzahl von Fragestellungen (z.B.
Qualitätsmanagement, Medizincontrolling, klinische
Forschung, Prozessmanagement- und -optimierung,
Personaleinsatzplanung, Ressourcenallokation, etc.)
steckt [2,3]. Für solche Sekundärnutzungszwecke
müssen die Daten aber entsprechend aufbereitet
werden. Hierzu können Methoden aus der Domäne
der Wirtschaftswissenschaften (z.B. Data Warehousing und Business Intelligence) eingesetzt werden
[4,5]. Allerdings ist der klinische Kontext derart komplex, dass sich existierende Verfahren nur bedingt
eignen und es gibt kaum umfassende, systematische
und vor allem tragfähige, praxistaugliche Ansätze zur
Abbildung 1: Zielsetzungen und Vorgehen
Ausgehend von theoretischen Überlegungen und
Literaturstudien wurde ein erstes Rahmenkonzept
entwickelt, das als Basis für die Fallstudie, die in
einem großen österreichischen Universitätsklinikum
durchgeführt wurde, diente. In der Fallstudie wurden
konkrete Konzepte für klinisches Data Warehousing
und die Sekundärnutzung pflegerischer Routinedaten
erarbeitet und prototypisch umgesetzt. Die Prototypenentwicklung erfolgte nach einem spiralförmigen
Vorgehensmodell. Ergebnisse aus den einzelnen
Spiraldurchläufen flossen in Feedbackschleifen zurück und wurden zur Validierung und Vertiefung der
Konzepte verwendet. Schließlich wurde ein konkreter
Leitfaden zur Erschließung und Sekundärnutzung
pflegerischer Routinedaten erstellt.
Ergebnisse
Rahmenkonzept und Vorgehensmodell: Es wurde
ein allgemeines Rahmenkonzept und Vorgehensmodell zur Sekundärnutzung von Daten aus der behandlungsprozessbezogenen, klinischen Routinedo-
47
Er baut direkt auf dem Rahmenkonzept auf und konkretisiert es für die spezielle Anwendungsdomäne
Pflege. Der Leitfaden ist ohne gröbere Adaptierungsschritte direkt anwendbar und kann zum Aufbau eines Nursing Data Marts und Nursing Intelligence
Systems in einer Krankenanstalt, in der eine (teil-)
strukturierte elektronische Pflegedokumentation eingesetzt wird, genutzt werden. Die Praxistauglichkeit
der entwickelten Konzepte konnte in der Fallstudie
gezeigt werden. Darüber hinaus wird der entwickelte
Ansatz bereits in einem Forschungsprojekt eingesetzt. In diesem wird ein Langzeitregister konzipiert,
in das klinische Routinedaten einfließen sollen, um
die Auswirkungen bestimmter radiotherapeutischer
Verfahren auf die Entstehung von Sekundärmalignomen zu erforschen. Die vorliegende Arbeit kann
somit einen Beitrag zur Ermöglichung bzw. Intensivierung der Sekundärnutzung klinischer Routinedaten in Einrichtungen des Gesundheitswesens leisten.
kumentation entwickelt. Es enthält eine Übersicht
über Arten bzw. Klassen von Fragestellungen, die mit
klinischen Routinedaten beantwortet werden können,
beschreibt Anforderungen an Analysewerkzeuge und
erläutert die zur Nutzbarmachung von Routinedaten
im Rahmen patientenübergreifender Fragestellungen
notwendigen Schritte sehr detailliert.
Data Warehouse und Sekundärnutzungskonzept:
Im Sekundärnutzungskonzept wurden die konkreten
Analysefragestellungen und Anforderungen an ein
Analysewerkzeug beschrieben und die zur Beantwortung der Fragestellungen relevanten Pflegedaten
selektiert. Im Data Warehouse Konzept wurde ein
Nursing Data Mart (NDM) konzipiert. Bei der Entwicklung des Datenmodells für den NDM wurde darauf
Bedacht genommen, dass einerseits die konkreten
Fragestellungen beantwortet werden können, das
Modell andererseits aber möglichst flexibel bleibt und
jederzeit erweitert werden kann, damit es auch in
Zukunft die Beantwortung weiterer, jetzt noch nicht
bekannter Fragestellungen, unterstützt.
Entwickelte Prototypen: Die in der Fallstudie entwickelten Konzepte wurden auch unter Verwendung
von Open-Source Komponenten prototypisch umgesetzt. Sowohl der NDM, als auch das zur Datenanalyse konzipierte webbasierte Nursing Intelligence
System (NIS) haben einen Reifegrad erreicht, der sie
in der Praxis einsetzbar macht. Mittlerweile werden
auch Daten aus anderen Einrichtungen des Krankenanstaltenträgers der Fallstudie eingebunden.
NDM und NIS wurden in den Routineeinsatz auf
Managementebene übernommen und ermöglichen
die patientenübergreifende Analyse von derzeit über
30 Millionen Datensätzen aus mehreren Jahren an
Pflegeprozessdokumentation aus verschiedenen
Einrichtungen für eine Vielzahl von Fragestellungen.
Leitfaden zur Sekundärnutzung von Pflegedaten:
Dieser konkretisiert das allgemeine Rahmenkonzept
und Vorgehensmodell für den Einsatz in der Anwendungsdomäne Pflege. Zusätzlich zur detaillierten
Beschreibung aller notwendigen Schritte enthält der
Leitfaden zahlreiche Vorschläge für mögliche pflegespezifische Sekundäranalysen inklusive der dazu
benötigten Datenelemente. Der Leitfaden ist so gestaltet, dass er direkt in anderen Einrichtungen eingesetzt werden kann.
Danksagung
Teile dieser Arbeit wurden durch den Tiroler Wissenschaftsfonds gefördert (GZ: 0404-1014, 0404-1189).
Literatur
[1] Mayer-Schönberger V, Cukier K. Big Data: A
Revolution that Will Transform how We Live,
Work, and Think: Houghton Mifflin Harcourt;
2013.
[2] Aller RD. The clinical laboratory data warehouse.
An overlooked diamond mine. Am J Clin Pathol.
2003 Dec;120(6):817-9.
[3] De Lusignan S, Liaw ST, Michalakidis G, Jones
S. Defining datasets and creating data dictionaries for quality improvement and research in
chronic disease using routinely collected data: an
ontology-driven approach. Inform Prim Care.
2012;19(3):127-34.
[4] Li P, Wu T, Chen M, Zhou B, Xu WG. A study on
building data warehouse of hospital information
system.
Chin
Med
J
(Engl).
2011
Aug;124(15):2372-7.
[5] Stolba N, Tjoa AM. The Relevance of Data Warehousing and Data Mining in the Field of Evidencebased Medicine to Support Healthcare Decision
Making. International Journal of Computer Systems Science & Engineering. 2007;3(3):143-8
[6] Samaha TR, Croll PR. A Data Warehouse Architecture for Clinical Data Warehousing. In:
Roddick F, Warren JR, editors. Proceedings
Australasian Workshop on Health Knowledge
Management and Discovery (HKMD 2007)
CRPIT; Ballarat, Victoria: Australian Computer
Society; 2007. p. 227-32.
[7] Hackl WO. Erschließung und Sekundärnutzung
von Routinedaten aus der klinischen und pflegerischen Prozessdokumentation: Ein Rahmenkonzept, Vorgehensmodell und Leitfaden. Dissertationsschrift (Dr. techn.). UMIT, Hall in Tirol: 2014.
Diskussion
Das Rahmenkonzept berücksichtigt im Gegensatz zu
bestehenden Ansätzen, die vor allem technische
oder organisatorische Aspekte behandeln, die Besonderheiten des klinischen Kontexts und kann nun
auch in anderen Einrichtungen, mit anderen Gegebenheiten und klinischen Prozessen, und für andere
zugrundeliegende Fragestellungen und Quelldaten
eingesetzt werden. Dazu muss es natürlich an die
jeweilige Situation adaptiert werden. Wie eine solche
Adaptierung aussehen kann, wurde mit dem Leitfaden zur Erschließung und Sekundärnutzung von
Routinedaten aus der Pflegedokumentation gezeigt.
48
„Minisymposium Modellbildung und
Simulation des Herzens“
Vorträge
MULTISCALE MULTIPHYSICS MODELING OF TOTAL CARDIAC FUNCTION:
FROM BASIC SCIENCE TO CLINICAL APPLICATIONS
G. Plank
HIGH-PERFORMANCE SIMULATIONS FOR CARDIAC ELECTROMECHANICAL MODELS
C. Augustin
MULTISCALE MODELING OF CALCIUM-MEDIATED PREMATURE VENTRICULAR COMPLEXES
F. Campos
PREDICTING RESPONSE TO CARDIAC RESYNCHRONISATION THERAPY THROUGH
COMPUTATIONAL MODELLING
A. Crozier
AN EFFICIENT FINITE ELEMENT APPROACH FOR MODELING FIBROTIC CLEFTS IN THE
HEART
C. Mendonca Costa
SCALABLE ACCELERATED ITERATIVE SOLVERS FOR CARDIAC ELECTRO-MECHANICS
A. Neic
EXPERIMENTAL VALIDATION OF COMPUTATIONAL MODELS OF CARDIAC ELECTROMECHANICS
E. Hofer, A. J. Prassl
49
50
MULTISCALE MULTIPHYSICS MODELING OF TOTAL CARDIAC FUNCTION: FROM BASIC SCIENCE TO CLINICAL APPLICATIONS
C. Augustin1, C. Costa1, F. Campos1, A. Crozier1,2, A. Neic1, A.J. Prassl1, E. Hofer1, G.
Plank1,3,
1
2
Institut für Biophysik, Medizinische Universität Graz, Österreich
Biomedical Engineering Department, Kings College London, UK
3
Oxford e-Science Research Centre, University Oxford, UK
[email protected]
Abstract⎯ The heart is a highly complex multiphysics organ whose main function is to propel blood
around the circulatory system, thus providing oxygen
and metabolites to the organs. Despite the wealth of
data available today in the era of postgenomic biology and the significant advances made in clinical imaging which provide image dataset at an unprecedented resolution, using such data to improve treatment
of cardiovascular disease remains challenging. Mathematical models of integrated cardiac function are a
promising approach to harness such data for gaining
better insight into the complex interplay of biological
processes across different spatial and temporal scales as well as between the different physics involved.
However, the methodological frameworks required
for performing advanced
experiments are vastly
complex. Numerous methodological issues have to
be addressed to make modeling an additional modality, applicable in clinical scenarios for optimizing
therapies and predicting outcomes. This minisymposium will address selected methodological as
well as applied topics in both basic as well as clinical
research.
in harnessing these data, gathered at various scales
of biological organization, lies in the complexity of
cardiac function which emerges from complex interactions between processes within and across the
hierarchical levels of organization. This is reflected in
cause-effect relationship which are difficult, if not
impossible, to dissect by reasoning alone. Comprehensive multiscale modeling frameworks are deemed
to be a promising approach as they facilitate mechanistic inquiries into these causal relationships.
A further challenging problem is to gain insight into
mechanisms governed by interactions across different physics. This is of critical clinical importance for
treating complex cardiovascular diseases such as
heart failure where electrophysiological, mechanical
and fluidic components are factors contributing to
disease progression. In such scenarios multiphysics
models may be of great utility due to their ability of
linking data on electrophysiology, anatomy and pathological substrate alterations such as infarct scars
or fibrosis, mechanical performance, fluid flow and
fluid structure interaction into a coherent representation of a patient’s cardiovascular system. It is anticipated that such personalized multiphysics models will
play a critical role as a clinical tool for planning of
therapies as well as for outcome prediction [1].
Keywords⎯ Cardiac Modeling, Electrophysiology,
Biomechanics, Numerical Methods, Scientific computing.
Introduction
While cardiac modeling is among the most promising
research approaches for addressing these challenges, methodological frameworks needed for building
robust and efficient environments for in-silico experimentation are vastly demanding (Fig. 1). The major
topics research is currently focusing on are: 1) Various complementary imaging and other diagnostic
modalities have to be combined to provide the basic
information for characterizing anatomy, structure and
function of the heart; 2) A complex set of processing
steps such as multimodal regristration and segmentation are necessary to extract information from
image datasets which provide a basis for model parametrization; 3) In a global data assimilation process
extracted information has to be combined with a priori
knowledge to parametrize model components which
cannot be measured directly; 4) Organ domains have
to be tesselated [2] and model equations have to be
The physiological function of the heart is regulated by
a cascade of processes in which a propagating
electrical wavefront controls mechanical contraction
and relaxation. Any disturbance in this highly ordered
sequence of events may trigger severe malfunctions,
either with immediately lethal consequences such as
the formation of reentrant fibrillatory activation patterns which precede sudden cardiac death, or, by
initiating a progressive degradation of pumping
efficiency which, eventually, leads to severe morbidity and mortality, as it is common with pathologies
such as heart failure.
Today, in the era of postgenomic biology, a wealth of
biological data is available to research which can be
used to unravel mechanisms underlying cardiac funtion in health and disease. However, a key challenge
51
Figure 1 Components of an In-silico experimentation environment: Electrophysiological model for computing electrical activation and repolarization sequences, excitation-contraction coupling (ECC) and mechanoelectric feedback (MEF), structure mechanical deformation model linked to a lumped model oft he cardiovascular system; postprocessing tools for computing electrocardiogram (ECG), magnetocardiogram
(MCG) and optical maps to facilitate comparison with clinical and experimental recordings.
discretized and solved, requiring cutting edge numerical methods to allow for sufficiently short simulationanalysis cycles [3,4]; 5) Verification of modeling software and validation of model outputs by comparing
in-silico predictions with experimental or clinical evidence is key for clinical future applications [5].
Literatur
[1] N. Smith, A. de Vecchi, et al. euheart: personalized and integrated cardiac care using patientspecific cardiovascular modelling. Interface
Focus, 1(3):349-364, 2011.
[2] A.J. Prassl, F. Kickinger, H. Ahammer, E. Hofer,
J.E. Schneider, E.J. Vigmond, N.A. Trayanova,
and G. Plank. Automatically generated, anatomically accurate Meshes for the Cardiac Bidomain
Equations., IEEE Trans. Biomed. Eng., 56(5):
1318 - 1330, 2009.
[3] S. A. Niederer, L. Mitchell, N.P. Smith, and G.
Plank.
Simulating
human
cardiac
electrophysiology on clinical time-scales. Front
Physiol, 2:14, 2011.
[4] A. Neic, M. Liebmann, E. Hoetzl, L. Mitchell, E.J.
Vigmond, G. Haase, and G. Plank. Accelerating
cardiac bidomain simulations using graphics processing units. IEEE Trans Biomed Eng, 59(8):
2281–2290, 2012.
[5] G. Plank, A. J. Prassl, R. Arnold, Y. Rezk, T. E.
Fastl, E. Hofer, C. M. Augustin. MultiscaleMultiphysics Models of Ventricular Electromechanics - Computational Modeling, Parametrization and Experimental Validation. XIII Mediterranean Conference on Medical and Biological Engineering and Computing 2013, 41:1864-1867,
2014.
Objectives of Mini-Symposium
The mini-symposium on „Multiscale-multiphysics
modeling of total cardiac function“ reviews current
trends and showcases recent applications and methodological developments in computational cardiology, including combined experimental and theoretical work on model validation.
Acknowledgement
This research is supported by the Austrian Science
Fund Grant F3210-N18, the National Heart, Lung,
and Blood Institute Grant RO1-HL-10119601 and the
European Commission FP7 Grant „CardioProof“.
52
INFLUENCE OF VARIATIONS IN THE ANGLE OF DIFFERENT EXCITATION
DIRECTIONS IN ISOTROPIC CARDIOMYOCYTE MONOLAYERS
R. Kienast1, M. Stöger1,2, M. Handler1, F. Hanser1, C. Baumgartner1
1
Institute of Electrical and Biomedical Engineering, UMIT, Hall in Tyrol, Austria
Division of Internal Medicine III / Cardiology, Medical University Innsbruck, Austria
2
[email protected]
Abstract As previously demonstrated signal recordings of randomly grown isotropic cardiac monolayers using micro electrode arrays (MEAs) are highly
sensitive to alternating spread directions. However,
the influence of the angle between two wavefrontpropagations related to changes in electrophysiology
of isotropic cardiac cell preparations is unknown. We
therefore determined the angle between endogenous
active pacemaker centers in n=7 primary chicken
cardiomyocytes monolayers and calculated relative
changes for each of the three investigated intrinsic
features of field potentials (FPs), FPrise, FPMIN, FPdur
and conduction velocity (CV). We could demonstrate
that even small changes in the angle of excitation
have a significant influence on the considered FP
features and CV.
Reutlingen, Germany). Based on this procedure
n = 7 primary, firmly attached and spontaneously
beating cell cultures comprising at least two endogenous active pacemakers were obtained to examine
the influence on changes in excitation direction.
MEA recording: Each culture dish with a built-in
MEA was mounted on a recording system (Multi
Channel Systems, Reutlingen, Germany) allowing for
simultaneously registering data from all 60 channels
at a temperature of 37°C. The sampling frequency
was set to 20kHz at a bandwidth of 1Hz to 3kHz.
Intrinsic FP features: To examine electrophysiological alterations at the cellular level we investigated the
following FP features according to Halbach et al. [3]:
 FPrise which correlates to the action potential
(AP) upstroke time.
+
 FPMIN which depends on Na current.
 FPdur which has a close relationship to the
AP repolarization time.
Additionally we considered CV locally at each single
electrode.
Keywords cardiomyocyte cell layers, spread
dependency, micro electrode arrays
Introduction
In a previous work we demonstrated the influence of
excitation direction on alterations of extracellular
recorded field potentials (FPs) based on local anisotropies in myocardial monolayers using microelectrode-arrays (MEAs) [1]. It is, however, not evident how sensitive these electrophysiological alterations respond to changes of the excitation entry point
of the observed electrode registration area in the cell
layer. This leads to the following scientific question:
Do have small alterations in the angle of excitation
wavefront less impact on cardiac electrical activity
than large differences? To examine this entry pointdependent response, detailed information on the
entry angle of the excitation wavefront related to the
observed region was calculated using an in-house
developed framework. Using this approach we were
able to demonstrate that even small changes in the
entry point of excitation lead to significant electrophysiological changes within single points of a randomly grown myocardial cell layer.
Data analysis: Data were analyzed offline with an inhouse developed software tool based on MATLAB
(The Mathworks, Natick, MA, USA). This tool
analyzes in a first step each MEA-channel separately
and extracts relevant intrinsic FP features of recorded
FPs. In a second step, to enable the reconstruction of
single excitation wavefronts each detected FP is
assigned to a single contraction of the cell layer and
CV was calculated at each single electrode. Thirdly,
an in-house developed algorithm, recently described
in [2], estimates the spatio-temporal distribution of all
active pacemaker centers inside and outside of the
MEA registration area. Finally, the angles of active
pacemakers referred to each single electrode of the
MEA were calculated. Data were then arranged in a
dataset structure allowing effective data analysis. To
examine angular dependency, the angle between
each endogenous pacemaker center and the change
of the respective feature was obtained and sorted in
bins of 10° each. Angles up to 150° were detected.
Due to varying values of the investigated features
between different myocardial cell layers relative
changes were used to allow for comparisons
(Figure 1).
Methods
Cell cultivation: As previously described in [2] the
ventricles of twelve-day-old chicken embryos were
used for cell preparations. The cellular suspension
was plated onto commercially available planar MEAs
integrated in a culture dish (Multi Channel Systems,
53
Results
Conduction velocity (CV): Figure 2a shows a boxplot of relative changes of CV related to the angle
between different pacemaker centers. No correlation
between variations in the entry angle and CV alteration could be observed. However, small angles
(<10°) seems to have slightly less impact on CV than
angles >10°.
FPrise: The median variation is in the range of about
11% to 13%, however a clear relationship between
excitation angle and change of FPrise-time can not be
confirmed (see Figure 2b).
(a)
(b)
Fig. 2: Variation of (a) CV and (b) FPrise plotted over
angle between different wavefronts excitation patterns.
Grants
This work was funded by the K-Regio-Project of the
Standortagentur Tirol, Innsbruck, Austria and by the
European Regional Development Fund (ERDF).
Fig. 1: A schematic illustration of a randomly grown
myocardial cell layer with multiple endogenous
pacemaker centers outside the MEA registration
area. The zoomed area illustrates an example for an
angle between two pacemakers.
References
FPMIN: No significant correlation between angles and
FPMIN was detected. However, analogous to CV a
slightly smaller variation compared to other angles
was observed in the range of 0° to 10°.
FPdur: In [1] we did not find a correlation between
FPdur and excitation direction. Interestingly we also
did not observe an angle dependent variation. The
median variation of FPdur is about 1% only, independent of the angle between different endogenous
pacemakers.
[1]
[2]
Discussion
The hypothesis of correlation between changes of
excitation wave entry points and changes in the FP
morphology has to be rejected. This result confirms
that there exists a distinct local anisotropic structure
in a randomly grown “isotropic” cell layer. As a consequence slight changes in the excitation direction
lead to significant electrophysiological alterations in
an isotropic cardiac monolayer and need to be considered in signal analysis.
[3]
54
R. Kienast, M. Stöger, M. Handler, F. Hanser,
and C. Baumgartner, “Alterations of field potentials in isotropic cardiomyocyte cell layers
induced by multiple endogenous pacemakers
under normal and hypothermal conditions”,
Am. J. Physiol. Heart Circ. Physiol, Published
1 August 2014.
R. Kienast, M. Handler, M. Stöger, G. Fischer,
F. Hanser, and C. Baumgartner, “A system for
analysing thermally-induced effects of propagation direction dependent features in field potentials of cardiomyocyte monolayers using
multi-electrode arrays”, Electrocardiology 2013
Proceedings of the 40th International Congress on Electrocardiology. 2014, Veda, Publishing House, pp. 159-164, 2014.
M. Halbach, U. Egert, J. Hescheler, and K.
Banach, “Estimation of action potential changes from field potential recordings in multicellular mouse cardiac myocyte cultures,” (eng),
Cell. Physiol. Biochem, vol. 13, no. 5, pp. 271–
284, 2003.
SIMULATING EFFECTS OF INCREASED HEAT TRANSFER SURFACES
BETWEEN APPLICATOR TIP AND REFRIGERANT IN CARDIAC
CRYOABLATION
M. Handler1, G. Fischer2, R. Kienast1, C. Baumgartner1
1
Institute of Electrical and Biomedical Engineering, UMIT, 6060 Hall i. T., Austria
2
AFreeze GmbH, 6020 Innsbruck, Austria
E-Mail: [email protected]
Abstract The simulation of cardiac cryoablation
scenarios using different applicator variants allows for
an investigation of effects caused by structural differences of examined applicator modalities. In this study
two similar variants of a tip applicator model are analyzed using the finite element method. The applicator
variants differ in the heat transfer surface between
the active tip of the applicator and the refrigerant
caused by an extension of the applicator tip into the
boiling chamber. Temperature fields and temperature
profiles obtained by the simulation show a significant
enhancement of the cooling power of the variant with
extension in the boiling chamber, confirming a substantial increase in efficiency by an enlarged heat
transfer surface.
tip extension in the boiling chamber – are investigated by simulating a common ablation protocol of
4 min freezing.
Keywords Cardiac cryoablation, modeling, simulation, finite element method, applicator geometry
Introduction
Cardiac cryoablation is a minimally invasive intervention for the treatment of cardiac arrhythmias.
Cryoapplicators are positioned close to the tissue
responsible for the arrhythmia and cools it down to
freezing temperatures. For an optimal treatment of
diagnosed arrhythmias existing applicator variants
are being continuously improved. Applicator geometries are adapted and modified to their field of
application to allow for effective treatments with an
efficient usage of the supplied refrigerant (e.g. [1]).
In this work the temperature distribution of a cryoablation scenario is simulated using a newly developed tip applicator (for a schematic model see
Figure 1). The active part of the applicator – the
gold tip – exhibits only a small heat transfer surface at the outside of the applicator to reduce the
loss of cooling power to the blood stream. To increase the heat transfer of the refrigerant to the
active part of the applicator and consequently its
cooling performance, the gold tip is extended into
the boiling chamber to enhance the heat transfer
surface.
To estimate the effects of cryoapplicator geometry
modifications, realistic simulations of cryoablation
scenarios by different applicator variants can be
performed using the finite element method [1]. In
this study the temperature distributions between
two variants of the tip applicator – without and with
Figure 1: Geometrical models of simulated applicator variants. a: Model without tip extension into
boiling chamber. b: Model with tip extension into
boiling chamber.
Methods
To simulate the effects of probe extension in the
boiling chamber of the applicator, two simplified geometrical models, i.e. without and with extension, were
created using real dimensions of the applicator (see
Figure 1). In the model both applicator variants are
positioned 1 mm deep into the myocardium with
6 mm thickness. To simulate the heat contribution by
the blood stream around the applicator during cryoablation, a blood layer with 3 mm thickness was added to the model. To simulate the temperature distribution of the applicator, the myocardial tissue and the
blood layer, Pennes’ bioheat equation was used [2].
For the consideration of latent heat during the freezing of myocardial tissue and blood, the effective heat
capacity model was applied [3] by using a phase
transition temperature range between 0°C and -10°C.
Thermal properties for blood and tissue and terms for
heat contribution by blood perfusion and metabolism
were used as described in our previous work [4]. The
specific heat capacity and density of gold (applicator
55
tip and extension), tungsten and polyurethane (tube)
were selected from [5]. The thermal conductivity of
the tungsten polyurethane mixture of the applicator
tube was measured using tube samples.
To consider different phases of the refrigerant nitrous
oxide, time and temperature dependent Neumann
and Cauchy boundary conditions were applied at the
inner boundaries of the tip, the tip extension and the
first 4 mm of the tube similarly as described in [4].
Adaptations were made to incorporate the lower
maximal refrigerant flow rate of 91 mg/s
(2.75 standard liters per minute) and a linear reduction of the cooling capacity at the inside of the tube
with increasing distance from the applicator tip.
Figure 3: Temperature profiles at the applicator tip
(black), at 1 mm (blue), 3 mm (green) and 5 mm
distance from the tip (red). Dashed lines: Model
without tip extension into boiling chamber. Solid
lines: Model with tip extension into boiling chamber.
Results
Figure 2 shows the temperature distributions for both
simulated variants with and without tip extension. The
cooling power increase of the applicator variant with
tip extension is clearly seen by the distribution of the
depicted isolines. To compare the temperatures of
the applicator tip and at equal distances in the myocardium, temperature profiles were extracted at the
highlighted positions in Figure 2 (see Figure 3). The
applicator tip reaches a temperature of -73.4°C in the
simulation with tip extension, whereas only -43.8°C is
reached at the end of 4 min freezing in the simulation
without tip extension. The depth of the -10°C-isoline
(fully developed iceball at lower phase transition temperature) is approximately 1 mm deeper in the simulation with tip extension (2.81 mm below tip) compared to the simulation without tip extension
(1.82 mm below tip).
Discussion
The results of the simulated variants show clearly the
positive effect of the tip extension in the boiling
chamber. The significantly lower tip temperature of
the variant with gold extension consequently causes
lower temperatures with higher cooling rates in the
myocardium close to the applicator – factors which
verifiably increase cell death during cryoablation.
Acknowledgement
This work is funded by the K-Regio-Project of the
Standortagentur Tirol, Innsbruck, Austria and by the
European Regional Development Fund (ERDF).
References
[1] M. Seger, G. Fischer, M. Handler, M. Stöger, C.
Nowak, F. Hintringer, G. Klima and C.
Baumgartner, "Achieving elongated lesions
employing cardiac cryoablation: A preclinical
evaluation study," Cryobiology, no. 65, pp. 145150, 2012.
[2] H. H. Pennes, "Analysis of tissue and arterial
blood temperatures in the resting human
forearm," Journal of Applied Physiology, vol. 1,
no. 2, pp. 93-122, 1948.
[3] J. Liu, "Bioheat transfer model," John Wiley &
Sons, Inc., 2006.
[4] M. Handler, G. Fischer, M. Seger, R. Kienast,
C.-N. Nowak, D. Pehböck, F. Hintringer and C.
Baumgartner, "Computer simulation of cardiac
cryoablation: Comparison with in vivo data,"
Medical Engineering & Physics, no. 35, pp.
1754-1761, 2013.
[5] H. Kuchling, Taschenbuch der Physik,
Fachbuchverlag Leipzig im Carl Hanser Verlag,
2007.
Figure 2: Temperature distributions after 240 s
freezing. Isolines denote 10°C steps. White isolines are the -10°C (closer to the tip) and 0°C isolines (more distant from the tip) and enclose the
volume of phase transition (Effective Heat Capacity Model [3]). a: Model without tip extension into
boiling chamber. b: Model with tip extension into
boiling chamber. Colored dots: Location of extracted temperature profiles in Figure 3.
56
„Health Care Technology und Biomedizinische Informatik“
57
58
HYBRID MODELING – A NEW PROSPECT FOR HEALTHCARE
SYSTEMS SIMULATIONS
W. Siegl1, A. Lassnig1, J. Schröttner1
1
Institute of Health Care Engineering, Graz University of Technology, Austria
[email protected]
Abstract By now simulation modeling is a wellestablished method for planning and decision making
in the healthcare domain. Taking advantage of all
three main simulation paradigms, namely System
Dynamics, Discrete Event and Agent Based
Modeling, this paper proposes a concept for a
comprehensive hybrid model of the healthcare
system. Outlining an example in the domain of heart
failure treatment, it is shown that such models are
powerful tools for healthcare planning.
feedback loops. For example the population of a
country can be modeled as a stock, while births and
deaths are the respective flow variables.
Secondly, the Discrete Event (DE) technique is
frequently used to describe a system from the
process point of view. Thus a system is modeled as a
sequence of operations that is performed over
entities. A patient’s treatment process for example
can easily be modeled by using DE, where the
patient is represented by an entity that experiences a
sequence of administrative and medical operations
(e.g. waiting for a nurse, moving to examination
room, receiving a treatment ...).
Finally, the most detailed models can be built using
the Agent Based (AB) approach. The overall model
behavior is discovered by knowing, respectively
simulating, the behavior of single objects, the so
called ‘agents’, in a given environment. The overall
model results from the interaction of these agents
with each other or with their environment. A simple
use case for example would be to model patients and
doctors as agents that are distributed over a region.
A patient-agent characteristic can then be planned in
a way that, if he needs medical treatment, he
automatically visits the nearest doctor on duty.
The concept of hybrid modeling now takes
advantage of all the techniques explained above. The
main idea is to model every part of a system with the
most suitable simulation paradigm.
Based on this idea, preexisting non-hybrid models at
the Institute of Health Care Engineering were
combined to a large scale healthcare model, and a
general hybrid modeling concept was defined.
Keywords multi-paradigm modeling, agent based,
system dynamics, discrete event
Introduction
Over the past years simulation modeling became a
well-established tool for healthcare decision making
and planning. Thereby offering solutions for problems
where other methods, like analytical calculations, fail
to succeed, or where acquiring the solution in the
‘real world’ is not possible respectively dangerous or
expensive (e.g. building up healthcare infrastructure
just for testing purposes).
By now numerous models, which cover a wide
variety of issues, can be found in literature. These
models usually use on of the three main techniques
for simulation modeling. Thus the choice is usually
based on the characteristics of the underlying
problem, which should be analyzed.
The popularity of simulation modeling is not only, but
also, based on the fact that nowadays even standard
consumer computers have enough computational
power to run models with intermediate complexity in
reasonable time. This progress in the hardware
domain allows more and more complex models to be
created. One of these new prospects, namely the
possibility to combine different simulation techniques
to a so called ‘hybrid model’, is discussed in this
paper.
Results
Similar to Djanatliev et al.[1] the following five core
components were found to be essential for the
creation of a comprehensive large scale healthcare
model (cf. Fig. 1):
 Demographics
 Disease spread
 Treatment process(es)
 Reimbursement system
 Geography
The demographics module predicts the population
development dissected by age and sex, as these are
key parameters for the prevalence diseases. For this
purpose cohort component models, like [2], are welland can easily be implemented using the system
dynamics technique.
Methods
Generally three main simulation techniques can be
applied. Firstly, the system dynamics (SD) approach
describes a complex system at a high abstraction
level. Such models typically consist of stock and flow
variables. A stock, respectively an accumulation,
thereby describes the current state of the system,
while the latter define the change of a stock over
time. Through their interdependence, these two
elements characterize a complex system by using
59
Figure 1: Simplified model structure outlining the core modules at different abstraction levels
specific disease or even for a whole healthcare
system. The five core components should be
implemented in separated modules with according
interfaces, to ensure extensibility and changeability of
single aspects (e.g. a new reimbursement system).
However it must be kept in mind that the coupling
between the single modules is crucial. Although the
concept presented above seems straightforward,
additional feedback loops must be taken into
account. For example, considering long term
simulations, the change in mortality due to different
treatment of diseases cannot be neglected.
Moreover further work should be dedicated to model
the influence of geography on the disease spread, to
be able to reproduce epidemic behavior of
contagious diseases.
Taking all these possibilities into account, this first
approach shows that large scale healthcare models
have the potential to be a powerful tool for future
healthcare planning and decision making.
The disease spread module uses prevalence values
to determine the affected population at the simulation
start, respectively incidence rates during the course
of a simulation run. This module can, with some
limitations, be realized at high abstraction level using
SD, since inclusion of individual risk factors (e.g.
body weight, smoking, etc.) through probability
distributions is possible.
The disease spread module is hence important, as it
defines the interface between the demographics
module and the treatment process module,
respectively the geography module.
In a first step we coupled our population model [2] to
our DE heart failure treatment model [4], by adjusting
the amount of entities according to the population
size and incidence rate.
In a second step, the geographic aspects should be
taken into account by using AB simulation. Our
design plans that for every new incidence a ‘patientagent’ is created, which does not only consists of
personal parameters (age, sex, etc.) but also
contains information on its geographic location,
respectively hometown. When medical providers,
ranging from general practitioners to hospitals, are
also modeled as agents, a patient-agent can seek for
a provider that fulfills his needs (feasible treatment for
a specific disease, reasonable waiting time,
reachability). Under certain circumstances, e.g. high
risk patients or rural regions without appropriate
healthcare infrastructure, the telemedicine option
included in [4] can be applied as alternative.
Finally statistics on usage, collected by the treatment
process module, are handed over to the finance
module, which calculates the arising healthcare costs
based on the implemented reimbursement system
(e.g. the Austrian DRG (diagnosis related-groups)
system).
References
[1] Djanatliev, A. et al.: Hybrid simulation with loosely
coupled system dynamics and agent-based
models for Prospective Health Technology
Assessments, Proceedings of the 2012 Winter
Simulation Conference, 9-12 Dec 2012; Berlin,
Germany. Edited By Laroque C. et al. 2012
[2] Schröttner, J. et al.: A population prospect for
future health care models based on a system
dynamics model, IFMBE Proceedings of the
European Medical & Biological Engineering
Conference, 23-28 Nov 2008, Antwerp, Belgium.
Edited by. Vander Sloten, J. et al., pp.1018-1021,
2009.
[3] Booth, H.: Demographic forecasting: 1980 to
2005 in review, Int J Forecasting, vol. 22, pp.547581, 2006
[4] Schröttner, J., Lassnig, A.: Simulation model for
cost estimation of integrated care concepts of
heart failure patients, Health Economics Review,
vol. 3:26, November 2013
Discussion
The model concept presented in this paper describes
how different modeling techniques can be combined
to build a comprehensive healthcare model for a
60
INTEGRATED CARE IN HEART FAILURE TREATMENT – A MODELLING
SETUP COMBINING ESTABLISHED CONCEPTS
A. Lassnig1, W. Siegl1, J. Schröttner1
1
Institute of Health Care Engineering with European Notified Body of Medical Devices,
Graz University of Technology, Austria
[email protected]
Abstract With the double aging effect and its ensuing increase of chronic illnesses, new challenges for
public health care systems arise. To overcome future
financial burdens, new strategies and methods of care
have to be considered. Using the Discrete Event simulation methodology a comprehensive model was developed to analyse and simulate an integrated care
concept for the treatment of heart failure. Relations
between the objects and their implementation are described and discussed. The developed model is the
first tool to combine the most common concepts of
care in heart failure treatment and allows their evaluation through comprehensive scenarios.
reproduce the clinical pathway of heart failure patients.
This technique has a middle to low degree of abstraction and uses objects and resources to describe the
event driven procedures. [2]
Results
To evaluate the integrated care concept a model for
the treatment of heart failure patients was build. As an
important criterion to distinguish the overall state of
health, patients were classified accordingly to guidelines of the New York Heart Association. Each of the
NYHA classes (I-IV) is integrated into the model and
represented by an individual process which is further
split into two blocks, separating the outpatient and
inpatient care [3]. Figure 1 illustrates a simplified chart
of patient flows in the model.
Keywords heart failure, discrete event, integrated care, telemedicine, model
Introduction
The double aging effect and its ensuing increase of
chronic illnesses causes new challenges for public
healthcare systems. A prominent example is heart
failure which is one of the major causes for hospitalisations of people above the age of 65 years [1]. To overcome the future financial burdens, public healthcare
systems will have to focus on the development of new
strategies and methods of care. Integrated care concepts, such as the telemedical treatment of heart failure patients, are potential steps to future improvement.
However, they have to be evaluated in terms of practicability, medical and economic outcomes.
Models are powerful instruments to pursue these purposes and allow the investigation of potential solutions
and difficulties. This work focuses on the simulation of
common integrated care concepts for the treatment of
heart failure based on a telemonitoring system in combination with a disease management program.
Figure 1: Overview of patient flows for outpatient and
inpatient care [4]
For the outpatient care the general practitioner (GP),
the specialist and the ambulance were simulated as
objects with distinct features, mainly varying in associated costs per visit for each NYHA patient, the frequency of visits and the potential improvement or deterioration of health, thus the class change and mortality
rates. In case of a hospitalisation, emergency and
normal transports have been taken into account. [3]
The inpatient care regards stays in normal and intensive care, with the option of additional individual medical procedures. Calculations are based on the Austrian
DRG system and consider procedure-oriented diagnosis-related case groups with daily and procedure components. Transgressions of the common interval for
the length of stay of heart failure patients account for a
major part of the overall costs. Therefore instead of
medians, probability density functions were implemented to realistically simulate the outcome. [3]
The telemonitoring system, the data centre, the attending physician, the home nurse and the hospital are key
Methods
The chosen environment for the modelling process
was AnyLogic Version 6.9, a simulation tool that supports the most common simulation methodologies,
namely Discrete Event, System Dynamics and Agent
Based modelling. To translate different treatment concepts of heart failure into the digital world, it is important to choose a degree of abstraction which is
sensitive enough to deliver significant results, but does
not require too detailed thus unavailable data. For the
simulation the discrete event approach was chosen to
61
relationships between the involved objects. Beneficial
effects of patient trainings by the nurse, structured
telephone support, clinic-based outpatient programs [6]
as well as new drug therapies and other approaches in
the field can also be simulated and discussed in terms
of health and economic outcomes and extend the
number of potential scenarios.
As for most models, limitations had to be addressed,
mainly based on the quality of data. The lower the
degree of abstraction, the better the knowledge about
the system has to be. For the inpatient care detailed
data had been obtained through various sources like
the Austrian DRG system, Statistics Austria [5] and
ongoing study results, all enabling the development of
realistic scenarios. Outpatient care is still a factor of
uncertainty, since data sources are limited or generally
unavailable. The influence of the combination of a
telemedical system with a disease management program on treatment outcomes still has to be evaluated
through clinical studies. Singular investigations of each
method of treatment are available, with diverging results [6, 7].
The ultimate objective is to find a sustainable solution
in form of an integrated care concept that manages to
combine the advantages of outpatient and inpatient
care to improve treatment outcomes in terms of health
and costs. The built model is a powerful instrument to
evaluate all common approaches in the treatment of
heart failure patients. In future work a first insight on
the efficiency of the integrated care concept will be
presented through simulation results and serve as a
basis for decision making in healthcare.
components of the modelled integrated care concept.
To describe their respective influence on health and
economic outcomes, relations between the active objects have to be defined in detail. Figure 2 shows the
simplified concept of dependencies between the objects in the model.
Figure 2: Conceptual illustration of relations between
objects
With a telemonitoring system the state of health is
monitored on a daily basis through data transfer to the
data centre. In case of conspicuous health parameter
changes the general practitioner is alerted and approaches the patient. After an alarm potential treatment
adaptions through medication are prescribed by the
physician and considered with ATC codes (Anatomical
Therapeutic Chemical Classification System). As in
conventional care, the patient still consults the physician if necessary.
The main role of the nurse is to support the patient by
informing about heart failure, self-care, prevention
and/or how to use the telemonitoring system, thus
promoting the health literacy. Through home visits the
nurse can assist the physician with deeper knowledge
about the patient’s well-being, perform physical examinations or provide other forms of care (e.g. physical
therapy or medication reconciliation). If the administration of drugs is not effective enough, the possibility of a
referral to a hospital is still given via normal or emergency transport. All mentioned objects and their relations are implemented through probabilities describing
the efficiency of the interactions (e.g. NYHA class
changes and the rate of events).
Usually not every patient receives a telemonitoring
system, therefore the rules for the allocation have to be
defined before running the simulation, for example
based on the NYHA class. Expenses for the telemonitoring system can be calculated with different methods
of financing. Costs for drugs, home nurse visits and
transportation to the hospital are adjustable as well.
Bibliography
[1] Zannad, F., Agrinier, N., Alla, F.: Heart failure burden and therapy, Europace, 11(Suppl 5):1-9, 2009
[2] Borshchev, A.: The Big Book of Simulation Modeling, AnyLogic North America, 1-612, 2013
[3] Schröttner, J., Lassnig, A.: Simulation model for
cost estimation of integrated care concepts of heart
failure patients, Health Economics Review, 3:26,
2013
[4] Lassnig, A., Schröttner, J.: „Comparison of telemedical and conventional treatment of heart failure
patients considering different approaches to inhospital stay”, in Proceedings of BMT 2013; Graz Austria, 755-756, 19.-21. September 2013
[5] Statistics Austria: “Statistisches Jahrbuch 2014”,
Wien: Verlag Österreich GmbH, 2014
[6] Feltner, C., Jones, CD., Cené, CW., Zheng, ZJ.,
Sueta, CA., Coker-Schwimmer, EJL., Arvanitis, M.,
Lohr, KN., Middleton, JC., Jonas, DE.: Transitional
Care Interventions to Prevent Readmissions for
Persons With Heart Failure, Ann Intern Med,
160:774-784, 2014
[7] Andrikopoulou, E., Abbate, K., Whellan, DJ.: Conceptual Model for Heart Failure Disease Management, Canadian Journal of Cardiology, 30:304-311,
2014
Discussion
The flow chart nature of the discrete event model
greatly facilitated adaptations to incorporate different
methods of care. For the first time a model was developed that encompasses the most common treatment
approaches for heart failure and considers various
62
HERZMOBIL TIROL – mHEALTH TELEMONITORING EINGEBETTET IN EIN HERZINSUFFIZIENZ NETZWERK
S. Welte1, P. Kastner1, G. Pölzl2, A. von der Heidt2, R. Modre-Osprian1
1
AIT Austrian Institute of Technology GmbH, Österreich
2
Medizinische Universität Innsbruck, Österreich
[email protected]
Abstract⎯ In die Behandlung bzw. Betreuung an
Herzinsuffizienz (HI) erkrankten Patienten sind unterschiedliche Personengruppen involviert wie Kliniker,
Kardiologen, Internisten, niedergelassene Ärzte oder
Krankenschwestern. Eine große Herausforderung
stellt sich hier in der abgestimmten Betreuung und
Kommunikation der beteiligten Personen. Die bisherigen Erfahrungen im Bereich mHealth basiertes
Telemonitoring zeigen, dass die telemedizinische
Versorgung von HI-Patienten durch ein spezifisches
Betreuungsnetzwerk ergänzt werden sollte. In Rahmen einer ersten Machbarkeitsstudie wurde ein solches HI-Netzwerk in Innsbruck aufgebaut. Darauf
aufbauend wird dieses Netzwerk im Zentralraum
Innsbruck im Rahmen von HerzMobil Tirol evaluiert.
aus einem HI-Telemonitoring-Koordinator, 5 niedergelassene Ärzten, einem Kliniker und einer mobilen
Krankenschwester in Innsbruck gezeigt werden (Abbildung 1).
Keywords⎯ Telemedizin, mHealth, Herzinsuffizienz,
Patientenbetreuung
Einleitung
Mindestens 28 Millionen Menschen im Großraum
Europa leiden an Herzinsuffizienz (HI). Sie ist somit
eine der am häufigsten vorkommenden chronischen
Erkrankungen in der älteren Gesellschaftsschicht
entwickelter Länder. Eine Studie in den USA hat
ergeben, dass in den nächsten 20 Jahren die Zahlen
der Erkrankten um 25% steigen werden [1]. Trotz
Verbesserungen in der medizinischen Therapie von
HI-Patienten ist die Re-Hospitalisierungrate sehr
hoch. In einem Zeitraum von 6 Monaten nach einer
stationären Behandlung werden zwischen 30 bis
50% der HI Patienten wieder Stationär aufgenommen; dies entspricht in Österreich einer Zahl von
mehr als 24 000 Krankenhausaufenthalte pro Jahr
[2]. Telemedizinische Betreuungsprogramme können
die Re-Hospitalisierungrate verringern [3]. Die unterschiedlichen Ergebnisse aus HI-TelemonitoringStudien [1, 4] lassen sich teilweise durch die unterschiedlichen Patientenkollektive, der Adhärenz oder
verwendeten Technologien begründen. Ein wesentlicher Faktor ist jedoch auch das Betreuungsprogramm und die Kollaboration der beteiligten Stakeholder entlang des Behandlungspfades der Patienten. Im Rahmen einer Studie soll die technische
Machbarkeit einer 6 monatigen telemedizinischen
Betreuung in einer realen Versorgungsumgebung
von HI-Patienten in einem HI-Netzwerk bestehend
Abbildung 1: HI-Netzwerk-Stakeholder
Methoden
Das integrieren von mobilen Endgeräten in der Behandlung von HI-Patienten eröffnet neue Möglichkeiten der Therapieoptimierung. So können z.B. die
Vitalparameter der Patienten auf Distanz beobachtet
werden und auch ein Bild über die Adhärenz des
Patienten im Hinblick auf die medikamentöse Therapie verschafft werden. Hierzu werden dem Patienten
während des Zeitraums der Telemonitoringphase
Blutdruckmessgerät, Körperwaage und ein Mobiltelefon zur Verfügung gestellt. Eine auf dem Mobiltelefon
installierte Applikation ermöglicht es dem Patienten
die gemessenen Daten mittels NFC-Technologie aus
den Messgeräten zu übernehmen und diese an die
Datenzentrale zu senden [5]. Zusätzlich zu den gemessenen Daten können auch diverse Fragen zur
Medikation und zum Wohlbefinden über den Touchscreen des Mobiltelefons beantwortet werden.
Im Zeitraum April 2012 bis September 2013 wurden
zehn Patienten für die Machbarkeit im System aufgenommen und monitiert. Eine abschließende Befragung der Akteure des HI-Netzwerkes bezüglich Ihrer
63
persönlichen Einschätzung zur technischen Machbarkeit wurde mittels eines Interviews durchgeführt.
Diskussion
Kollaborative Herzinsuffizienz-Versorgung mit mobilfunkbasiertem Telemonitoring ist ein wertvolles Instrument zur Steigerung von Effizienz und KostenEffektivität in einer sektorenübergreifenden, integrierten Versorgung. Sofern sich die Erfahrungen aus der
Proof-of-Concept Studie als positiv erweisen, ist eine
Ausdehnung von HerzMobil Tirol auf das gesamte
Bundesland Tirol möglich.
Das mit HerzMobil Tirol erarbeitete Versorgungsnetzwerk einschließlich der Kommunikationsinfrastruktur (modulare, multi-indikative TelemedizinischePlattform) ist im Prinzip auch auf die Versorgung
anderer chronischer Erkrankungen (z.B. Diabetes
Mellitus, Bluthochdruck, koronare Herzerkrankung,
Rhythmusstörungen) übertragbar. Somit könnten
zukunftsträchtige Versorgungsstrukturen für eine
integrierte, kontinuierliche Gesundheitsversorgung
von chronischen Erkrankungen bereitgestellt werden.
Ergebnisse
Die in der Studie beteiligten Patienten haben kumulativ an 2501 Tagen Daten an die Telemonitoring Zentrale übermittelt. Das entspricht 82,2 TelemonitoringMonate bzw. 6,9 Telemonitoring-Jahre. 9 von 10
Patienten konnten länger als 6 Monaten telemedizinisch betreut werden (siehe Tabelle 1). Patient 5
wurde in eine Pflegeeinrichtung aufgenommen und
beendete die Teilnahme an der Studie.
Patient
Monate
Tage
Patient 1
8,5
258
Patient 2
10,5
320
Patient 3
10,1
308
Patient 4
7,8
238
Patient 5
2,5
75
Patient 6
8,8
268
Patient 7
6,9
210
Patient 8
8,1
246
Patient 9
10,5
320
Patient 10
8,5
258
Tabelle 1: Übertragungszeitraum der Patienten
Danksagung
Ein Dank geht an die Mitglieder des Qualitätszirkels
„Herzinsuffizienz – Herzmobil“ die in enger Zusammenarbeit an dem Projekt HerzMobil Tirol mitgearbeitet haben und an die UMIT für die Durchführung
der Interviews.
Literatur
Die im Rahmen des Projektes durchgeführten Interviews der beteiligten Akteure haben ergeben, dass
aus deren persönlichen Sicht ein klarer medizinischer
Nutzen im Sinne der Therapieeinstellung, optimierung und -adhärenz erkennbar ist. Die Stärke
des Herzinsuffizienz Netzwerks besteht neben der
integrierten mHealth Telemonitoring Technologie vor
allem in der ambulanten Betreuung der Patienten
durch die Pflegekräfte. Die ständige Übertragung der
für die Therapie relevanten Gesundheitsdaten und
die gute Betreuung durch die Pflegekräfte vermittelt
den beteiligten Patienten ein Gefühl der Sicherheit im
Umgang mit ihrer Erkrankung.
Die Machbarkeitsstudie hat ergeben, dass eine Betreuung von HI-Patienten mittels mHealth basiertem
Telemonitoring
eingebettet
in
ein
HIVersorgungsnetzwerk in der realen Versorgungsumgebung technisch umsetzbar ist.
Aufbauend auf diesen Ergebnissen wurde das Herzinsuffizienz Netzwerk Tirol auf 4 Kliniken (Innsbruck,
Hall in Tirol, Natters und Hochzirl) der TILAK - Tiroler
Landeskrankenanstalten GmbH im Rahmen einer
fortführenden Proof-of-Concept Studie erweitert. In
diesen Kliniken wurden von 7 Klinikern und 3 Diplomkrankenschwestern/-pflegern bis dato 67 Patienten aufgenommen, von denen derzeit noch 36 Patienten aktiv im System registriert sind. Diese Patienten werden von 10 niedergelassenen Ärzten im
Raum Innsbruck Land gemonitored und von den
oben genannten Diplomkrankenschwestern/-pflegern
im Zeitraum der Telemonitoringphase betreut.
[1] M.A. Konstam, Does Home Monitoring Heart
Failure Care Improve Patient Outcomes? Home
Monitoring Should Be the Central Element in an
Effective Program of Heart Failure Disease Management, Circulation 125 (2012), 820-827
[2] E. Baldaszti, Jahrbuch der Gesundheitsstatistik
2012, Statistik Austria, Wien, 2013
[3] D. Scherr, P. Kastner, A. Kollmann, A. Hallas, J.
Auer, H. Krappinger, H. Schuchlenz, G. Stark, W.
Grander, G. Jakl, G. Schreier, F.M. Fruhwald,
MOBITEL Investigators, Effect of Home-Based
Telemonitoring Using Mobile Phone Technology
on the Outcome of Heart Failure Patients After an
Episode of Acute Decompensation: Randomized
Controlled Trial, J Med Internet Res 11 (2009),
e34.
[4] A.S. Desai, Does Home Monitoring Heart Failure
Care Improve Patient Outcomes? Home Monitoring Heart Failure Care Does Not Improve Patient
Outcomes – Looking Beyond Telephone-Based
Disease Management, Circulation 125 (2012),
828–836.
[5] J. Morak, H. Kumpusch, D. Hayn, R. ModreOsprian, G. Schreier, Design and evaluation of a
telemonitoring concept based on NFC enabled
mobile phones and sensor devices, IEEE Trans
Inf Technol Biomed 16 (2012), 17–23.
64
A COMBINED APPROACH FOR SIMILARITY SEARCH AND ANALYSIS IN
BIOCHEMICAL MOLECULAR DATABASES
M. Popovscaia1, C. Baumgartner1
1
Institute of Electrical and Biomedical Engineering, UMIT – The Health and Life Sciences University, Hall in Tirol, Austria
[email protected]
Abstract Performing the search in modern large
databases of various types of molecules is often
challenging and computationally expensive.
In this work we proposed a strategy for similarity
search in molecular databases, namely, clustering
structurally similar molecules. This strategy combines
topological indices whose calculation is polynomial in
time, machine learning techniques and statistical
methods. Our approach allowed us to construct different clusters of structurally similar molecules under
various preliminary settings and conditions.
Methods
Dataset. For our experimental work a dataset of 100
chemical organic molecules was chosen from the
AR3982 database. AR3982 is a Molfile database and
it was created in [1] by filtering out isomorphic graphs
from the Ames Genetoxicity database. For each
molecule the information about its name, atoms,
bonds, coordinates and connectivity is provided.
Computational representation of the molecules.
Molecules from the dataset were presented in a specific vector form. First, for each molecule we used
chemical information from the Molfile to construct
molecular graphs
where nodes
are atoms and edges are bonds of the molecule. For
each molecular graph
we constructed representative vectors based on the values of topological indices. In more detail, we designed and analyzed three
cases of study. A total of 30 topological indices [2]
were chosen from three different groups, 10 indices
in each group: distance based (
), entropy based (
) and eigenvalue based indices
(
). Using topological
indices from these three different groups allowed us
in every case to obtain different structural information
about the molecular graphs. In the first case for each
graph
, we calculated all and only
topological indices from the Group 1 and defined the
vectors
,
. These vectors we considered to be
the numerical representatives of the molecular
graphs, and subsequently of the corresponding molecular compounds. We repeated the process of
vector construction in the second and third cases in
the same manner using topological indices from
Group 2 and Group 3 correspondingly. Therefore we
obtained three vector representations for each graph
from the dataset: three 10-dimensional vectors, each
vector being based on specific group of indices and
containing specific structural information.
Cluster analysis. First step of our approach consisted in performing the principal component regression analysis (PCR) to reduce the dimension of the
constructed vectors and to filter out insignificant topological indices. In the next step we applied the kmeans clustering method to form the clusters. The
parameter k was set from 5 to 13. In the final step we
analyzed the selected clusters.
Keywords Molecule (Molecular Compound), Database Search, Topological Index, Machine Learning.
Introduction
Nowadays a large number of various molecular compounds are stored in specific databases. The amount
of data stored in these databases make important
operations such as searching for similar compounds
within the database or comparing newly discovered
compounds with the existent ones, in the manual way
extremely complex or even not possible. For this
purpose there were developed numerous similarity
measures. However, their applications are not
straightforward and usually computationally expensive. In addition, the effectiveness of the same similarity measure may vary in different cases. Therefore
there is a need of developing new automated tools
and strategies for conducting fast and intelligent
search and analysis in the large molecular databases.
The work presented here is part of a multistep
framework for similarity search in databases of molecular compounds performed by us. It combines
topological indices, which are easy to compute, machine learning techniques and statistical methods.
Our strategy starts with transforming each molecule
from the dataset under study first in a molecular
graph and then representing it as a specific vector
with the help of topological indices chosen from particular three classes. Later we use statistical and
machine learning methods to cluster structurally similar molecular graphs. Choosing the topological indices from different classes and setting the machine
learning parameters in a specific way defined by us
allowed us to construct clusters of structurally similar
molecular compounds.
65
Results
Following the described scheme we represented
molecules as vectors. Using the PCR we filtered out
the insignificant topological indices: in the first case
the dimension of the vectors was reduced from 10 to
6, in the second case – from 10 to 5, in the third case
– from 10 to 7. For the filtered out vectors we applied
the k-means method. In Tab. 1 results of this analysis
are shown, namely, the accuracy of clustering in all
three cases and for each k value is presented. As
one can see, we generally obtained decently high
accuracy values. But the highest accuracy values
were obtained in the second case when for the construction of the representative vectors the entropy
based topological indices were used. According to
these results and subsequent statistical and visual
analysis we concluded that the best partitioning was
obtained when setting the parameter k from 9 to 13.
Note that all the clusters contain different number of
graphs. In almost all generated clusters we were able
to identify and confirm structurally similar molecular
graphs.
Figure 1: Clusters No. 3 (left) and No. 4 (right), second case (entropy based topological indices), k=13.
Figure 2. Cluster No. 3, second case (entropy based
topological indices), k=13 (left); cluster number 10,
third case (eigenvalue based topological indices),
k=13 (right).
Table 1: Results of the k-means data analysis.
k
5
6
7
8
9
10
11
12
13
Case 1
93.1
93.2
93.2
93.2
93.2
94.8
93.9
94
94.7
Case 2
93.9
95.5
96.5
96.3
97.3
97.2
97.5
97.5
97.7
Case 3
90.8
92.7
93.1
93.3
95.8
93.6
96.3
94
96.3
Discussion
The aim of our work was to develop new computationally inexpensive and fast methods for searching
for structurally similar biochemical molecules in large
databases. In this work after combining topological
indices, machine learning techniques and statistical
methods we were able to form clusters of structurally
similar molecular graphs very fast. These clusters are
formed in a reasonable way when the different initial
parameters are set. This brings us to the conclusion,
that depending on the scope of the search, we can
select the topological indices and set the necessary
calculation parameters in such a way that meaningful
clusters of structurally similar biomolecules will be
constructed.
For example, in Fig. 1 the clusters No. 3 and No. 4
from the second case with k=13 are presented. One
can see that both clusters have molecular graphs of
similar dimensions and structure. Molecular graphs in
the third cluster (Fig. 1, left) tend to have more linear
structure and have few or no closed loops. On the
other side, graphs in the fourth cluster (Fig. 1, right)
have at least 2 loops and have similar dimensions as
well.
In another example (Fig. 2) one cluster from the second case (entropy based topological indices, cluster
No. 3, left) and another cluster from the third case
(eigenvalue based topological indices, cluster No. 10,
right) are shown. We see that the left cluster contains
all four graphs from the right cluster (the left cluster in
this case is being less specific), all the graphs in the
right cluster have no cycles, have linear structure and
have not more than one branch.
These examples suggest us that depending on the
scope of search one may choose different groups of
topological indices and set different values for the
parameter k to construct meaningful clusters of
structurally similar biomolecules.
Acknowledgement
We would like to thank Prof. Dr. Habil. M. Dehmer for
providing us with the AR3982 database.
Bibliography
[1] M. Dehmer, N. Barbarini et al.: A large scale
analysis of information-theoretic network complexity measures using chemical strutures, PLoS
ONE, 4:e8057, 2009
[2] R. Todeschini, V. Consonni, Molecular Descriptors for Chemoiformatics. Wiley-VCH,
Weinheim, second, revised and enlarged edition,
2009.
66
INTEGRATION OF NGS DATA AND IMAGES OF TISSUE SECTIONS FOR
PERSONALIZED ONCOLOGY
M. Baldauf1,2, A. Dander1,2, M. Sperk1, S. Pabinger1,3, Z. Trajanoski1,2
1
Division for Bioinformatics, Biocenter, Innsbruck Medical University, Innsbruck, Austria.
2
Oncotyrol GmbH, Center for Personalized Cancer Medicine, Innsbruck, Austria.
3
AIT - Austrian Institute of Technology, Health & Environment Department,
Molecular Diagnostics, Vienna, Austria.
[email protected]
Abstract Advances in next-generation sequencing
(NGS) and processing of whole-slide bioimages facilitate the development of personalized oncology. The
open source bioinformatics platform – Personalized
Oncology Suite (POS) – enables the integration of
clinical data, NGS data, whole-slide bioimages, and
publicly available information. POS is a scalable and
flexible web-based platform, offering different modules for data up- and download, visualization techniques, as well as collaboration features.
with further functionalities regarding additional data
sources, visualizations, user interface languages, or
other key components. Utilized libraries comprise
PrimeFaces and PrimeFaces Extensions for the
creation of JSF components, whereas Hibernate
Validator provides input validation for user entries.
Apache CODI integrates additional Java Bean
scopes and the Guava libraries were chosen to support POS with a set of helpful functionalities regarding
collections. The underlying database is based on a
data warehouse schema promoting a simple integration of information extracted from different sources.
Object-relational mapping for interaction with the
PostgreSQL database is provided via EclipseLink.
Through the addition of this abstraction layer, the
database back-end can be easily changed.
Keywords Personalized oncology, Data integration, Next-generation sequencing, Bioimaging
Background
Technological advances in NGS as well as the development of devices for scanning whole-slide bioimages from tissue sections and image analysis
software for quantification of tumor-infiltrating lymphocytes (TILs) allow, for the first time, the development of personalized cancer immunotherapies that
target patient specific mutations [1]. However, the
real value of these disparate datasets can be truly
exploited only when the data is integrated. In our
experience, it is of utmost importance to establish a
local database hosting only the necessary data. This
approach implies that pre-processed and normalized
data will be stored in a dedicated relational database
whereas primary data are archived at separate locations including public repositories [2]. To this end, a
database integrating clinical, NGS, and bioimaging
data would be extremely helpful for clinical cancer
research and in near future also for routine applications in medical oncology. As there is currently, to the
best of our knowledge, no application that supports
this integration, we developed the bioinformatics
platform Personalized Oncology Suite (POS) to overcome this bottleneck and support the development of
this exciting field.
Results
The Personalized Oncology Suite (POS) is an application facilitating the combination of clinical and biological data into one integrated solution. Its objective
is achieved through consistent implementation of
various data entry possibilities, modules for data upand download, and different visualization techniques.
Clinical data comprise, on the one hand, information
about cancer patients itself, excluding patientidentifying data. On the other hand, POS integrates
information of the routinely used UICC/TNM staging
system. Furthermore, POS is designed to support the
evaluation of the immunoscore, an innovative staging
system based on quantitative determination of CD3+
and CD8+ T cells within different locations of a tumor
[3]. Descriptive plots provide insights in distributions
of these scores and feature a comparison of different
participating institutes. In addition to manual data
input, clinical data and staging information can be
uploaded to POS in CSV format and exported as
XLS, CSV, and PDF files.
Additionally, somatic mutations, identified within patient samples in an upstream step by the use of NGS
and specialized applications [4], can be integrated
into POS. For this purpose, the common variant call
format (VCF) is supported, enabling a batch upload
of thousand mutations from several patients at once.
As the visualization of identified mutations tremendously supports their interpretation, POS includes the
genome browser Gviz [5]. It visualizes mutations in
Methods
Designed as a web-based platform, the Personalized
Oncology Suite (POS) is based on the Java Enterprise Edition 6 (J2EE 6) technology stack and relies
on the JBoss Application Server. The modular architecture of the web-application, in combination with its
open source license (GNU AGPL) enables the community to easily modify and extend the application
67
the genomic context, including publicly available
gene models, and supports the selection of several
patients at once, displaying a comparable view of the
mutations for each patient in separate tracks.
Beside somatic mutations, also whole-slide bioimages from tissue sections can be connected to patient
data. As these images comprise several gigapixels,
file size is likewise large. Hence, POS does not store
the raw image files itself. In order to integrate wholeslide bioimages, POS facilitates the exchange of
imaging data through incorporating several distributed instances of the bioimage management application Bisque [6]. For this purpose, POS is able to access already uploaded images within a connected
Bisque instance. POS also offers an image upload
module that facilitates a direct upload of these huge
images. Additionally, a developed standalone application enables a tailored batch upload of numerous
images at once.
When using the direct upload module or the
standalone image upload application, proprietary
image formats get converted to the widely used
OME-TIFF file format [7]. POS supports the following
common formats: CZI, NDPI, OME-TIFF, SCN, SVS,
TIFF (Trestle), VMS, VSI, and ZVI. The creation of a
tiled image pyramid is performed by connected
Bisque instances. This kind of image processing is
important to display the image within the POS image
viewer (Fig. 1) in a Google maps like manner. The
image viewer is based on an adapted version of the
interactive JavaScript widget PanoJS3 for fetching
only tiles of the currently displayed region from
Bisque. The connections to Bisque instances are
administered by POS, whereas tailored Java servlets
manage the encrypted communication between POS
and Bisque.
As POS holds confidential and patient related data,
the application is secured by an authorization and
authentication system. Furthermore, POS provides
an intelligent logging functionality, exception handling, and logical integrity due to input validation.
A use case for such an integrated data management
system comprises the identification of high-risk cancer patients through histological and genomic fea-
tures and their tailored treatment based on their molecular characterization.
Discussion
POS is a web-based application combining clinical
and biomolecular data, including NGS data and
whole-slide bioimages. The integration of heterogeneous biological datasets from multiple sources enables views from different perspectives in a single
system. Its modular and flexible architecture and its
release under an open source license facilitate extensions and adaptions to different innovative requirements in a simple manner. The web-application
provides an intuitive user interface for data upload,
download, manipulation, and visualization of all integrated data types. POS is an effective solution for
current challenges in clinical cancer research and a
possible future routine application.
References
[1] J. Couzin-Frankel, “Cancer Immunotherapy,”
Science, vol. 342, no. 6165, pp. 1432–1433, Dec.
2013.
[2] H. Hackl et al., “Information technology solutions
for integration of biomolecular and clinical data in
the identification of new cancer biomarkers and
targets for therapy,” Pharmacol. Ther., vol. 128,
no. 3, pp. 488–498, Dec. 2010.
[3] J. Galon et al., “Cancer classification using the
Immunoscore: a worldwide task force,” J. Transl.
Med., vol. 10, no. 1, p. 205, Oct. 2012.
[4] S. Pabinger et al., “A survey of tools for variant
analysis of next-generation genome sequencing
data,” Brief. Bioinform., vol. 15, no. 2, pp. 256–
278, Mar. 2014.
[5] F. Hahne et al., “Gviz: Plotting data and annotation information along genomic coordinates,” R
package version 1.4.5.
[6] K. Kvilekval et al., “Bisque: a platform for bioimage analysis and management,” Bioinformatics, vol. 26, no. 4, pp. 544–552, Feb. 2010.
[7] M. Linkert et al., “Metadata matters: access to
image data in the real world,” J. Cell Biol., vol.
189, no. 5, pp. 777–782, May 2010.
Figure 1: POS user interface showing the whole-slide bioimage viewer. It provides a quick view on a large image
by dynamic fetching and stitching of currently displayed image tiles from a connected Bisque instance.
68
„Medical Devices und Anwendungen“
69
70
MRI SAFETY OF DEEP BRAIN STIMULATOR PATIENTS
A. Tilp1, N. Leitgeb1
1
Institute of Health Care Engineering with European Notified Body of Medical Devices, Graz
University of Technology, Graz, Austria
[email protected]
Abstract Magnetic resonance imaging (MRI) of
patients with implanted deep brain stimulators (DBS)
may cause health risks due to enhanced tissue heating. This paper evaluates the MRI-induced specific
absorption rate (SAR) and temperature elevation due
to the radio frequency fields emitted by two birdcage
coils at a frequency of 128 MHz. Investigations were
made on a modified anatomical numerical human
model with implanted DBS.
The results indicate that by meeting the patient-related
partial body limit of 3.2 W/kg for the head-averagedSAR, adverse tissue heating occurs at an implanted
DBS.
was guided along subcutaneous tissues. The lead tip
was placed in the hypothalamus (Figure 1).
Figure 1: Deep Brain Stimulator integrated in the human model "Duke"
Keywords deep brain stimulator, MRI, specific absorption rate, tissue heating, patient safety
To simulate RF EMF generation by the MRI scanner
two birdcage coils (head coil, body coil) with 16 rungs
were used (Figure 2).
Dielectric material property values were taken from to
the SEMCAD X material database which is based on
results from Gabriel et al. [8]. All metallic objects were
modelled as perfect electric conductors. The relative
permittivity of the lead insulation and the header of the
stimulator case were 3.
Introduction
Deep brain stimulators (DBS) are an alternative to
medication in treating patients suffering from Parkinson´s disease, movement disorders and medically
intractable tremor [1, 2] as well as psychiatric disorders [3]. MRI is applied for diagnosis as well as for
placing and verifying the proper position of implanted electrode(s).
Manufacturer’s safety guidelines restrict MRI imaging
of such patients to systems up to 1.5 T only which
apply 64 MHz radio frequency (RF) electromagnetic
fields (EMF) [4]. In contrast, retrospective studies on
performed scans, partly disregarding this advice, report
no MRI-related injuries [3, 5], and an expert group
expressed concerns that such a precaution may be too
restrictive [2].
The aim of this paper is to analyse the specific absorption rate (SAR) and temperature elevation due to the
RF-field of MRI scanners at 128 MHz (3T) by numerical modelling.
Figure 2: Birdcage coils used for MRI imaging; head
coil (left) and body coil (right)
Methods
Simulation platform: All simulations were performed
with a commercial software package (SEMCAD X
V14.8). Boundary surfaces of the simulation space
were totally absorbing. Thermal simulation was performed with the steady state solver and tissue boundary conditions according to Neufeld [6].
Model: A unilateral monopolar DBS, consisting of a
metallic can with a dielectric header and an insulated
electrode lead, was implanted into the anatomical
model of the adult male “Duke” [7]. The stimulator can
was placed pectoral below the left clavicle. The lead
SAR: The input power was scaled such as to induce a
whole-head averaged SAR of 3.2 W/kg [9] in a reference patient without implant. SAR averaged over 1g,
10g and the whole body were calculated.
Temperature: Exposure to MRI RF EMF lasts long
enough to justify a steady state approach. Hence, specific heat capacity, thermal conductivity, heat generation rate, perfusion and blood heat capacity of the
tissues were considered constant. The temperature
elevation at equilibrium (calculated with input power =
0 W), was subtracted from the results for each voxel.
71
References
Results
Tissue heating is caused by RF EMF absorption and
by EMF-induced eddy currents within the metallic parts
of the implant, which is the most important safety issue
for patients with DBS. [10]
The presence of the DBS during MRI at 128 MHz
leads to local SAR values at both types of coils, which
exceed the safety limit SAR10g = 20 W/kg [9]. The metallic implant changes the spatial SAR distribution rather than the whole body SAR value. Patient’s heat
load and the affected volume depend on the coil type.
Both are larger using the body coil.
The spatial SAR distribution for the head coil and the
body coil with and without the DBS implant are shown
in Figure 3.
[1]
[2]
[3]
[4]
[5]
[6]
Figure 3: SAR distribution with and without a DBS, at a
head coil (left) and a body coil (right)
[7]
Without the DBS at both coils the highest temperature
elevation is encountered in the superficial tissues. As
expected, at patients with implanted DBS the maximal
tissue heating is located near the electrode tip. It is
13.6°C and 7.2°C for the head coil and the body coil,
respectively.
These temperature elevations are reached after about
20 min, which corresponds to usual MRI scan times.
[8]
[9]
Discussion
At maximal permissible power levels, local SAR limits
are exceeded, and tissue heating is high enough to
cause adverse thermal effects. It must be pointed out
that the calculations do not yet consider pulsation of
RF-fields and the different duty cycles. Therefore, the
results are worst case estimations.
Manufacturer’s safety recommendations limit the headaveraged-SAR to 0.1 W/kg [4]. This is conservative
enough to meet the SAR safety limits and keep the
highest temperature elevation well below 1°C.
Further investigations which account for RF-EMF pulsation are needed.
[10]
72
C. C. McIntyre, M. Savasta, L. Kerkerian-Le
Goff and J. L. Vitek, “Uncovering the
mechanism(s) of action of deep brain
stimulation - activation, inhibiton or both”,
Clinical Neurophysiology, p. 115: 1239–1248,
2004.
J. M. Bronstein, “Deep Brain Stimulation for
Parkinson Disease - An Expert Consensus
and Review of Key Issues”, Archives of
Neurology, pp. 68(2):165-171, 2011.
E. Pereira, D. Nandi and T. Aziz, “Deep Brain
Stimulation: an underused panacea?”,
Advances In Clinical Neuroscience And
Rehabilitation, 2008.
Medtronic, “MRI Guidelines for Medtronic
Deep Brain Stimulation Systems”, 10 2010.
[Online].Available:
http://professional.medtronic.com/wcm/group
s/mdtcom_sg/@mdt/@neuro/documents/doc
uments/dbs-mri-gdlns.pdf. [Accessed 11 02
2014].
P. S. Larson, R. M. Richardson, P. A. Starr
and A. J. Martin, “Magnetic Resonance
Imaging of Implanted Deep Brain Stimulators:
Experience in a Large Series”, Stereotactic
and Functional Neurosurgery, p. 86:92–100,
2008.
E. Neufeld, “High Resolution Hyperthermia
Treatment Planning”, Dissertation - ETH
Zürich, 2008.
A. Christ, “The Virtual Family—development
of surface-based anatomical models of two
adults and two children for dosimetric
simulations”, Phys. Med. Biol., pp. 55: N23N38, 2010.
S. Gabriel, R. Lau and C. Gabriel, “The
dielectric properties of biological tissues: III.
Parametric models for the dielectric spectrum
of tissues”, Phys Med Biol, pp. 41:2271-2293,
1996.
IEC, “IEC 60601-2-33 Medical Electrical
Equipment-Part 2-33: Particular requirements
for basic safety and essential performance of
magnetic resonance eqipment for medical
diagnosis”, International Electrotechnical
Commission, Geneva, Switzerland, 2008.
J.
A.
Nyenhuis,
S.-M.
Park,
R.
Kamondetdacha, A. Amjad, F. G. Shellock
and A. R. Rezai, “MRI and Implanted Medical
Devices: Basic Interactions With an
Emphasis on Heating”, IEEE Transactions on
Device and Materials Reliability, pp. 467-480,
2005.
EFFECTS OF FINE STRUCTURE STIMULATION ON PITCH PERCEPTION
A. Krenmayr2, V. Steixner1, R. Schatzer1,2, M. Staudacher1, A. Griessner1, C. Zierhofer1
1
Institute of Mechatronics, University of Innsbruck, Technikerstr. 13, 6020 Innsbruck, Austria
2
MED-EL GmbH, Fürstenweg 77a, 6020 Innsbruck, Austria
[email protected]
Abstract⎯ A cochlear implant signal processing
strategy incorporating temporal fine structure was
investigated in the context of pitch perception. Seven
MED EL cochlear implant users compared the pitches of harmonic tone complexes with fundamental
frequencies (F0s) of 161, 287, 411, and 811 Hz,
which were either processed by the experimental fine
structure strategy (TFS) or a purely envelope-based
strategy, based on the concept of continuous interleaved sampling (CIS). Psychometric functions of
pitch perception were sampled according to the
method of constant stimuli. The results showed that
at 161 and 287 Hz TFS sounded significantly lower in
pitch than CIS. This implicates, that the presented
temporal fine structure concept enables cochlear
implantees to perceive lower pitches than with CIS.
Both strategies use the same frequency to electrode
assignment. At 811 Hz only a limited number of trials
was performed since that measurement only served
as kind of a “blank trial” for the method.
Harmonic tone complexes with a duration of 500 ms
and a spectral roll-off of 9 dB per octave were fed via
direct input into a MED-EL OPUS1 research speech
processor. The pitch shift was measured at four F0s:
161, 287, 455, and 811 Hz. These F0s corresponded
to the center frequencies of the first three channels
and the upper corner frequency of the fourth channel,
respectively.
Every presentation consisted of two stimuli. The reference stimulus was always presented first and was
chosen to be CSSS1 at one of the four reference
F0s. The second stimulus was randomly selected
from five individually determined F0s, presented with
10CIS. The data from that experiment are plotted in
blue in Fig. 1. In order to eliminate the influence of
response bias, the experiment was repeated with
10CIS as reference and CSSS1 as comparison stimulus (red data points in Fig. 2).
Keywords⎯ Cochlear Implants, Stimulation Strategies, Pitch Perception, Fine Structure
Introduction
In normal hearing the pitch of a periodic signal is
mainly mediated by its fundamental frequency. In
cochlear implants, however, the representation of this
signal property depends to a large extent on the particular coding strategy. Upon exposure to temporal
fine structure stimulation, cochlear implantees typically report hearing sounds as being lower in pitch than
with their usual envelope-based CIS (Continuous
Interleaved Sampling) speech coding strategies. The
aim of this study was to explore this difference quantitatively in order to assess the implications of fine
structure stimulation on pitch perception.
Results
Psychometric functions are displayed in Fig. 1. The
frequency difference between the two stimuli in each
presentation is plotted on the x-axes, expressed in
semitones. The y-axes indicate the proportion of
responses, where the second stimulus was judged
as being higher in pitch than the reference stimulus.
The different colors show a comparison of having the
F0 of 10CIS or CSSS1 as a constant reference frequency for the respective experiments. In panels with
a full dataset (two psychometric functions) the crossing of both functions marks the point of subjective
equivalence (PSE). In the remaining panels this value can be estimated from the 50% symmetry point,
although in that case the estimate is still contaminated by response bias. The vertical black lines mark
presentations with identical F0s in both stimuli.
Therefore a negative PSE indicates that CSSS1
sounded lower in pitch than 10CIS and vice versa for
a positive PSE.
Fig. 2 shows the pitch difference for all individual
subjects for CSSS1 and 10CIS for different reference
frequencies. The graph indicates a larger perceived
pitch difference for lower frequencies, supporting the
presupposition of CSSS1 providing an expanded
pitch range for cochlear implantees.
Methods
The subjects for this study were 7 adults, implanted
with either a MED-EL C40+ or a MED-EL PULSAR100
cochlear implant, participated in this experiment.
CI
The fine structure coding strategy is based on the
concept of Channel Specific Sampling Sequences
(CSSS) [1].
• 10CIS: 10 CIS channels (100 – 8500 Hz, ≈
1800 pps/ch)
• CSSS1: 4 CSSS channels (100 – 811 Hz, ≈
4500 pps/ch) using “Selected Groups” algorithm [2], 6 CIS channels (811 – 8500 Hz, ≈
1500 pps/ch)
73
Figure 1: Psychometric functions comparing pitch perception with both coding strategies. Data for the individual
subjects are organized in rows, columns represent the four reference frequencies. Frequency differences are
presented on the x-axis. Red data points: 10CIS was used as constant reference, blue data points: CSSS1 was
used as a constant reference. Data was fitted with logistic functions. Vertical black lines indicate identical F0s for
both stimuli.
nearly a perfect fourth in the typical F0 range of
speech. With increasing F0 the pitch shift decreases
and converges to zero at the cross-over frequency
between CIS and fine structure stimulation (here: 811
Hz). Since the fine structure stimulation pattern
merges into the CIS stimulation pattern in this frequency region, this finding was to be expected and
can serve as evidence that the results are statistically
unbiased on average.
To conclude, fine structure stimulation expands the
perceptual pitch range and thus provides cochlear
implantees with a more comprehensive impression of
their acoustic environment.
Figure 2: Pitch difference between CSSS1 and
10CIS, expressed in semitones, over F0. The single
lines represent individual subject data. The pitch
difference is most pronounced at low frequencies and
vanishes towards higher frequencies, were the stimulation patterns of CSSS1 and 10CIS become more
and more alike.
Literature
[1]
Zierhofer, C.M. “Electrical nerve stimulation
based on channel specific sequences”, World Patent
WO 01/13991 A1, 2001.
[2]
Zierhofer, C.M. “Electrical stimulation of the
acoustic nerve based on selected groups,” US-Patent
7,283,876, Oct. 2007.
Discussion and Conclusion
The results indicate that on average fine structure
stimulation introduces a downward pitch shift of –4.6
semitones for a F0 of 161 Hz, which corresponds to
74
LABORTESTUNG EINES IMPLANTIERBAREN TELEMETRIESYSTEMS
FÜR CHRONISCHE EMG-AUFNAHMEN IM LANGZEITEXPERIMENT
L. Kneisz, E. Unger, H. Lanmüller, W. Mayr
Zentrum für Medizinische Physik und Biomedizinische Technik,
Medizinische Universität Wien, Österreich
[email protected]
Abstract⎯ Für spätere Verwendung in experimentellen in vivo-Studien wurde ein Telemetrieimplantat
für die drahtlose Echtzeitübertragung von 2 EMGSignalen entwickelt. Die Signale werden mit jeweils 2
Elektroden erfaßt und mit einer Bandbreite von 4 bis
480 Hz um 60 dB verstärkt. Die bidirektionale Telemetriestrecke nutzt das für industrielle, wissenschaftliche und medizinische Anwendungen verfügbare 2.4
GHz-Band und kann Daten mit einer Rate von 1 kS/s
über eine Distanz von bis zu 10 m übertragen. Ein
erster in Epoxidharz vergossener Prototyp wurde in
einem Phantom aus gewebesimulierenden Materialien platziert und zeigte einwandfreie Funktion über
den gesamten Übertragungsbereich, in Einklang mit
entwicklungsbegleitenden Simulationsberechnungen.
durch die dielektrischen Gewebeeigenschaften und
damit auch durch die Position eines Implantates
bestimmt [2]. Auch die Lage der Antenne innerhalb
der Isolationsbarriere (Gehäuse oder Verguß) spielt
eine wichtige Rolle, da sie den Abstand zum
umliegenden Gewebe bestimmt [3].
Die Empfangsfeldstärke RSSI (Received Signal
Strength Indicator) ist ein wichtiger Qualitätsparameter für drahtlose Kommunikationssysteme und
bestimmt als Maß für die eintreffende Signalstärke
letztlich die Reichweite.
Die Messung des Elektromyogramm (EMG) kann
über intramuskuläre oder epifasciale Elektroden erfolgen. Die hier verwendeten Intramuskulären bieten
selektivere und artefaktärmere Erfassung, allerdings
um den Preis leichter Gewebeschädigungen. Die
Meßverstärker müssen hohe Gleichtaktunterdrükkung aufweisen, um globale Störsignale gegenüber
im Sub-mV-Bereich liegenden EMG-Signalen abzuschwächen. Gleichspannungsanteile müssen eingangsseitig ausgefiltert werden, da die von Bewegungsartefakten überlagerten Elektrodenkontaktspannungen weit über der EMG-Amplitude liegen
und zu Verstärkerübersteuerung führen können. Vor
der Abtastung durch einen Analog-Digital-Converter
(ADC) muß ein Anti-Aliasing-Tiefpaß eingefügt sein.
Keywords⎯ Implantat, Telemetrie, EMG, in vitro
Einleitung
Drahtlose Übertragung von Sensor- und elektrischen
Biosignalen aus einem lebenden Organismus ist ein
wichtiges Instrument für experimentelle Langzeitstudien, aber auch potentiell für klinisches Monitoring,
da nichtinvasive Lösungen häufig zu unspezifische
Ergebnisse liefern und implantierte Systeme mit perkutaner Ausleitung wegen permanent erhöhtem
Infektionsrisiko über längere Beobachtungszeiträume
nicht einsetzbar sind.
Telemetriesysteme mit induktiver Nahfeldkopplung
arbeiten typischer Weise mit Trägerfrequenzen unter
10 MHz und übertragen über weniger als 20 cm
axialer Koppeldistanz. Reine Meßwerttelemetrie mit
unabhängiger Energieversorgung kann über wesentlich größere Entfernungen und mehr oder weniger
richtungsunabhängig erfolgen [1]. Für mehrkanalige
breitbandige Biosignalübertragung über mehrere
Meter und ohne Interferenz mit anderen technisch
genutzten Frequenzbereichen wurde das MICSBand (MICS: Medical Implant Communication Service) eingeführt, das im Bereich von 402-405 MHz
angesiedelt ist. Der weiter steigende Bedarf für die
Übertragung noch höherer Datenraten und möglichst
kleiner Antennenbaugröße führte schließlich zum
weltweit lizenzfrei verfügbaren ISM-Band (ISM: Industrial, Scientific, Medical) bei 2.4 GHz.
Trotzdem haben niederfrequentere Systeme auch
klare Vorteile, da die Übertragungsverluste durch
biologisches Gewebe hindurch erheblich niedriger
liegen. Verluste im Gewebe und Antennenverstimmung werden mit steigender Trägerfrequenz stark
Methoden
Der Aufbau des Telemetriesystems ist in Abb. 1
dargestellt. Der in Surface Mounted Device (SMD) Technik aufgebaute Implantatschaltkreis kommuniziert über eine Bluetooth-Schnittstelle direkt mit
einem Laptop-Computer.
Abbildung 1: Aufbau des Telemetriesystems
Die Schnittstelle nutzt das ISM-Band mit 79 Kanälen
(1 MHz-Raster), 128 Bit-Verschlüsselung und automatisierter Fehlerkorrektur. Als Implantatsantenne
wurde eine planare invertierte F-Antenne (15 x 6
mm) als guter Kompromiss zwischen Größe und
einer Abstrahlgüte von typisch 68 % verwendet.
Die Implantatsschaltung wurde zum Schutz gegen
75
korrosive biologische Umgebungseinwirkungen und
dielektrische Antennenverstimmung in Epoxy zu
einem Block (70x45x15 mm, 3 mm Kantenradius)
vergossen. Die Antenne liegt geprintet 6 mm unter
der Oberfläche.
Für die Messungen wurde das Implantat zentral und
längs an der Höhenachse ausgerichtet in einem
zylindrischen Phantom (Durchmesser 95 mm, Höhe
100 mm) bestehend aus gewebesimulierendem
Medium gemäß Tab. 1 platziert [4].
jeweils auf 60 cm hohen Holztischen verortet.
An beide Analogeingänge wurden Sinussignale oder
Impulsfolgen angelegt und in Form und Ampli-tude
mit den übertragenen Verläufen verglichen.
Als praxisnaher Funktionstests wurden experimentell
EMG-Signale direkt über Standard-Nadelelektroden
mit einem klinisch zugelassenem Gerät (Viking
Nicolet 12.1, Natus Medical Inc., San Carlos, USA)
gemessen und parallel zu gleichzeitig über die
Telemetrie übertragenen Verläufen dargestellt.
Tabelle 1: Zusammensetzung des
gewebesimulierenden Mediums.
Ergebnisse
Substanz
Deionisiertes Wasser
Polyethylenpulver
Agar
TX-151
Natriumchlorid
Natriumazid
Abb. 2 zeigt Ergebnisse der RSSI-Messungen für die
drei Varianten - unvergossene/vergossene Schaltung
im Freifeld, vergossene im Phantom, Abb. 3 Beispiele für Sinus- und Impulsübertragung über 10 m Entfernung bei Implantatsverortung im Phantom gegenübergestellt. Ein Demonstrationsbeispiel für eine praxisnahe experimentelle EMG-Übertragung findet sich
in Abb. 3 unten, wobei das Ausgangssignal mit einer
Bandbreite von 10 kHz gemessen wurde, die
Telemetriestrecke begrenzt sichtbar auf 480 Hz.
Gewichtsprozent
85,64
8,56
2,66
2,14
0,95
0,05
Der RSSI wurden mittig in einem Korridor (2,5 m
breit, 3 m hoch, 20 m lang) mit Decken- und Wandverkleidungen aus Stahlblech gemessen. Dabei wurden mit jeweils 5 Wiederholungen für die unvergossenen und die vergossenen Implantatselektronik
schrittweise ansteigend über 10 cm bis 10 m Luftstrecke Werte erfasst, gefolgt von einer identen Vermessung mit im Phantom platziertem vergossenen
Implantat. Sender- und Empfängereinheiten waren
Diskussion
Die ersten systematischen in vitro-Tests des entwickelten Implantats für 2-Kanal-EMG-Telemetrie haben vielversprechende Ergebnisse gezeigt, die auch
von einer ersten qualitativen Funktionstestung mit in
vivo Signalen bestätigt wurden. Eine geplante Langzeitstudie soll nun in einem nächsten Schritt zeigen
inwieweit die vorgestellte Lösung auch auf Dauer in
kritischer Gewebeumgebung verläßlich und stabil
Daten liefern kann.
Danksagung
Die Autoren bedanken sich bei MED-EL (Innsbruck,
Austria) für die Projektförderung.
Literatur
Abbildung 2: RSSI, unvergossene/vergossene
Schaltung im Freifeld, vergossene im Phantom
[1] Kahn AR, Chow EY, Abdel-Latief O, Irazoqui PP.
Low-power, high data rate transceiver system for
implantable prostheses. International journal of
telemedicine and applications. 2010;2010:563903
[2] Kneisz L, Schermann M, Unger E, Haller M,
Krenn M, Mayr W. The short-term effects of
antenna insulation thickness on path losses in
wireless telemetry implants at microwave
frequencies. European Journal of Translational
Myology. 2013;23(3):91-4.
[3] Merli F, Fuchs B, Mosig JR, Skrivervik AK. The
Effect of Insulating Layers on the Performance of
Implanted Antennas. IEEE T Antenn Propag.
2011;59(1):21-31.
[4] Ito K, Furuya K, Okano Y, Hamada L. Development and characteristics of a biological tissueequivalent phantom for microwaves. Electron
Comm Jpn 1. 2001;84(4):67-77.
Abbildung 3: Testsignalübertragung
aus dem Phantom über 10 m (oben und Mitte),
in vivo Demonstration (unten)
76
ZUSAMMENLEGUNG VON INSULINGABE UND GLUKOSEMESSUNG IM
FETTGEWEBE ZUR VERBESSERUNG DER THERAPIE VON DIABETES
M.Tschaikner1,2, M.Jungklaus1, B.Lehki1, M.Ellmerer1, H.Scharfetter2, T.Pieber1, W.Regittnig1
1
Medizinische Universität Graz
Technische Universität Graz
[email protected]
2
Abstract Um die Diabetestherapie mit einer künstlichen Bauchspeicheldrüse zu vereinfachen und zu
verbessern, ist es wünschenswert, die Glukosemessung und die Insulingabe zusammenzulegen und an
derselben Gewebsstelle durchzuführen. Dazu wurde
ein Therapiegerät entwickelt, das einen Glukosesensor so mit der Infusionskanüle einer Insulinpumpe
kombiniert, dass beide durch einen einzelnen Stich
ins Fettgewebe des Bauches eingebracht und dort
parallel betrieben werden können (Single-Port Therapie). Zur Kombination von Sensor und Kanüle sind
keine Manipulationen an den am Markt erhältlichen
Originalteilen notwendig. Das Single-Port-Therapiegerät konnte daher bereits bei einer Humanstudie
eingesetzt und erfolgreich getestet werden.
entwickelt werden, bei der die Komponenten der
Glukosebestimmung und der Insulinverabreichung
am selben subkutanen Fettgewebsort vereint werden
(Single-Port-Therapie). Durch diese Zusammenlegung könnte die Baugröße einer künstlichen Bauchspeicheldrüse und die Anzahl der für die Therapie
notwendigen Nadelstiche wesentlich reduziert werden. Dies würde mit erhöhter Therapieakzeptanz und
verbessertem Therapieerfolg einhergehen.
Ziel war es daher, kommerziell erhältliche Glukosesensoren und Insulininfusionskanülen auf möglichst
effiziente Weise zu einem Single-Port-Therapiegerät
zu vereinen.
Methoden
Keywords Glukosesensor, Insulininfusionskanüle,
Insulinpumpe, Typ 1 Diabetes, Künstliche Bauchspeicheldrüse, Subkutanes Fettgewebe
Für dieses Therapiegerät sind prinzipiell drei Konzepte der Anordnung von Sensor und Kanüle denkbar:
A) Der Sensor befindet sich an der Außenwand der
Insulininfusionskanüle (Abb. 1A). B) Der Sensor befindet sich in der Insulininfusionskanüle, wobei der
glukoseempfindliche Teil des Sensors über das Kanülenende hinausragt (Abb. 1B). C) Der gesamte
Sensor befindet sich im Inneren der Insulininfusionskanüle (Abb. 1C). Zur Glukosebestimmung muss
jedoch die Pumprichtung der Insulinpumpe kurzzeitig
umgedreht werden, sodass interstitielle Flüssigkeit
zum Sensor gesaugt werden kann.
Einleitung
Trotz bedeutender Verbesserungen bei der Diabetes-Therapie (z.B.: Entwicklung schnellwirkender
Insuline, Einführung der Insulinpumpentherapie und
Markteinführung von kontinuierlich messenden Glukosesensoren) ist es für viele Typ 1 DiabetesPatienten noch immer nicht möglich, Normalglukosewerte über einen längeren Tageszeitraum zu erzielen. Akut auftretende lebensbedrohliche Hypoglykämien, aber auch Spätkomplikationen wie z.B. Nierenversagen können daher nicht zur Gänze vermieden
werden [1].
Ein vielversprechender Ansatz zur Verbesserung der
Diabetesbehandlung ist die automatische ClosedLoop-Insulinverabreichung (künstliche Bauchspeicheldrüse). Solche Systeme bestehen aus drei Komponenten: einer Insulinpumpe, die laufend Insulin
über eine subkutan eingebrachte Insulininfusionskanüle abgibt, einem kontinuierlich messenden Glukosesensor, der subkutan eingestochen wird und laufend die Glukosekonzentration der interstitiellen Flüssigkeit bestimmt, sowie einem Algorithmus, der aus
den Sensormesswerten die benötigte Insulininfusionsrate errechnet und an der Pumpe einstellt [2].
In einer kürzlich durchgeführten Studie konnten wir
zeigen, dass es möglich ist, am Ort der subkutanen
Insulingabe auch die Glukose zu messen [3]. Es
könnte daher eine künstliche Bauchspeicheldrüse
Abbildung 1: Mögliche Konzepte der Anordnung von
Sensor und Kanüle
Mit unterschiedlichen am Markt erhältlichen Sensorsystemen und Insulininfusionskanülen wurden nach
den in Abb. 1 gezeigten Konzepten folgend mehrere
Prototypen entwickelt. Diese Prototypen wurden
dann bei in vitro Versuchen und Versuchen an Ratten getestet. Anhand mehrerer Kriterien (z.B. Sensorstabilität und Sensorlinearität in Insulinflüssigkeit
sowie Sensorgenauigkeit) wurde dann der in Design
und Funktion aussichtsreichste Prototyp ermittelt.
77
Prototyps abgegebenen Insulinmenge (grüne Balken) gut kontrolliert werden konnte.
Ergebnisse
Die in vitro und in vivo Untersuchungen ergaben,
dass ein Prototyp nach Konzept B (Abb. 1B) die besten Eigenschaften aufwies. Bei diesem Prototyp wird
ein kontinuierlich messender Glukosesensor der
Firma Dexcom so im Inneren einer Insulininfusionskanüle der Firma Medtronic positioniert, dass sein
glukosesensitiver Bereich etwa 6 mm über das Kanülenende hinausragt (Abb. 2). Die Setznadel des Sensorsystems der Firma Dexcom kann dabei zum
gleichzeitigen Einbringen von Sensor und Kanüle
verwenden werden. Ein einziger Nadelstich reicht
daher aus, um Sensor und Kanüle in das subkutane
Fettgewebe von Probanden einzubringen und dort
betreiben zu können.
Diskussion
Im Zuge dieser Arbeit wurde ein prototypisches Single-Port-Therapiegerät entwickelt, welches die Insulingabe und die Glukosemessung im subkutanen
Fettgewebe vereint. Hierfür wurde ein kontinuierlich
messender Glukosesensor so im Inneren einer Insulininfusionskanüle positioniert, dass sein glukosesensitiver Bereich über das Kanülenende hinausragt
(Abb. 2). Zum Setzen dieser Anordnung ist nur ein
Nadelstich notwendig. Darüber hinaus sind für die
Zusammenlegung von Sensor und Kanüle keine
Manipulationen an den am Markt erhältlichen Originalteilen vonnöten. Deshalb konnte das Therapiegerät bereits in einer Studie bei Typ 1 Diabetikern getestet werden. Dabei zeigte sich, dass die Messgenauigkeit des Prototyps vergleichbar mit der eines
parallel eingesetzten Kontroll-Sensors ist. Zudem
kann die Insulinabgabe über den Prototyp gleich gut
bewerkstelligt werden, wie über eine herkömmliche
Infusionskanüle. Diese Ergebnisse legen daher nahe,
dass das Single-Port-Therapiegerät zur Realisierung
einer künstlichen Bauchspeicheldrüse verwendet
werden könnte. Hierzu müsste das System noch um
eine Algorithmus-Einheit erweitert werden, die aus
den vom Sensor gemessenen Glukosewerten die
benötigte Insulininfusionsrate berechnet und an der
Insulinpumpe einstellt. Bei einer derzeit laufenden
Studie wird ein solcher Algorithmus bereits zusammen mit dem Single-Port-Therapiegerät getestet.
Dabei sollte der Blutzuckerspiegel von Typ 1 Diabetikern über 24 Stunden automatisch kontrolliert werden. Erste Ergebnisse zeigen, dass dies mit dem
Single-Port-Therapiegerät und dem verwendeten
Algorithmus gut durchführbar ist (Single-PortArtificial-Pancreas).
Abbildung 2: Kanüle und Sensor des Prototyps
Für den Zusammenbau dieses Prototyps sind keine
Manipulationen an den kommerziell erhältlichen Originalteilen notwendig. Daher konnte der Prototyp
bereits bei einer Studie, an der 10 Typ 1 Diabetiker
teilnahmen, getestet werden. Der Prototyp wurde
dabei in das Fettgewebe am Bauch der Probanden
eingebracht und über 20 Stunden zur subkutanen
Insulininfusion und zur gleichzeitigen Glukosebestimmung am Insulinabgabeort verwendet. Zu Vergleichszwecken wurde ein Kontrollsensor parallel
zum Prototyp in das Fettgewebe am Bauch der Probanden gesetzt. Zusätzlich wurden laufend Blutproben für eine Blutglukosebestimmung entnommen. In
Abb. 2 ist beispielhaft das Ergebnis eines Versuches
dargestellt. Man erkennt, dass der Prototypsensor
(grün) und der Kontrollsensor (blau) dem beobachteten Glukoseverlauf im Blut (rot) gleich gut folgen
konnten. Weiters ist ersichtlich, dass der Blutzuckerspiegel der Probanden mit der über die Kanüle des
Danksagung
Diese Arbeit wurde durch die EU-Projekte “Artificial
Pancreas at Home“ (AP@Home; Projektnr.: 247138)
und “A Portable bihormonal Closed Loop for Diabetes“ (PCDIAB, Projektnr.: 305654) gefördert.
Literatur
[1] Daneman D: Type 1 diabetes. Lancet 367:847858, 2006.
[2] Hovorka R: Closed-loop insulin delivery: from
bench to clinical practice. Nat.Rev.Endocrinol.
7:385-395, 2011.
[3] Lindpointner S, Korsatko S, Köhler G, Köhler H,
Schaller R, Kaidar R, Yodfat O, Schaupp L,
Ellmerer M, Pieber TR, Regittnig W.: Use of the
Site of Subcutaneous Insulin Administration for
the Measurement of Glucose in Patients with
Type 1 Diabetes. Diabetes Care 33:595-601,
2010.
Abbildung 2: Glukoseverläufe und Verlauf der Insulininfusion bei einem Humanversuch
78