<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zaud000003</Identifier>
    <IdentifierDoi>10.3205/zaud000003</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zaud0000038</IdentifierUrn>
    <ArticleType>Originalarbeit</ArticleType>
    <TitleGroup>
      <Title language="de">Data Logging &#8211; Wie zuverl&#228;ssig funktioniert die Datenaufzeichnung&#63;</Title>
      <TitleTranslated language="en">How reliable is the data logging function&#63; </TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Li&#223;</Lastname>
          <LastnameHeading>Li&#223;</LastnameHeading>
          <Firstname>Linda</Firstname>
          <Initials>L</Initials>
        </PersonNames>
        <Address>Hochschule Aalen, Studiengang H&#246;rakustik&#47;Audiologie, Anton-Huber-Str. 23, Geb&#228;ude G4, 73430 Aalen, Deutschland, Tel.: &#43;49 7361 576-4610<Affiliation>Hochschule Aalen, Studiengang H&#246;rakustik&#47;Audiologie,  Aalen, Deutschland</Affiliation></Address>
        <Email>lindaliss&#64;hotmail.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Kreikemeier</Lastname>
          <LastnameHeading>Kreikemeier</LastnameHeading>
          <Firstname>Steffen</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>Hochschule Aalen, Studiengang H&#246;rakustik&#47;Audiologie, Anton-Huber-Str. 23, Geb&#228;ude G4, 73430 Aalen, Deutschland, Tel.: &#43;49 7361 576-4610<Affiliation>Hochschule Aalen, Studiengang H&#246;rakustik&#47;Audiologie,  Aalen, Deutschland</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">data logging</Keyword>
      <Keyword language="en">binaural synchronization</Keyword>
      <Keyword language="en">classification</Keyword>
      <Keyword language="de">Data Logging</Keyword>
      <Keyword language="de">binaurale Synchronisation</Keyword>
      <Keyword language="de">Situationserkennung</Keyword>
    </SubjectGroup>
    <DatePublishedList>
      
    <DatePublished>20191001</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2628-9083</ISSN>
        <Volume>1</Volume>
        <JournalTitle>GMS Zeitschrift f&#252;r Audiologie - Audiological Acoustics</JournalTitle>
        <JournalTitleAbbr>GMS Z Audiol (Audiol Acoust)</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>03</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Das Data Logging (DL) kommt in der Praxis h&#228;ufig zum Einsatz, um die Aussagen der Kunden hinsichtlich der Tragedauer von H&#246;rger&#228;ten abzugleichen. Ebenfalls ist es dem H&#246;rakustiker m&#246;glich nachzuvollziehen, wie lange und in welcher Situation der Kunde das H&#246;rsystem getragen hat. Oftmals kommt es jedoch zu dem Fall, dass die Aufzeichnungen der Ger&#228;te von den Aussagen der Kunden abweichen. Somit stellt sich die Frage ob und wann es zu Komplikationen in der Aufzeichnung des Trageverhaltens kommen kann.</Pgraph><Pgraph>In der hier vorgestellten Studie wurden die Zuverl&#228;ssigkeit des Data Loggings und die Faktoren, wie z.B. der binauralen Synchronisation, die dieses beeintr&#228;chtigen k&#246;nnen, untersucht. Dazu wurde neben der Aufzeichnungsdauer auch die Situationserkennung f&#252;r drei verschiedene Hersteller &#252;berpr&#252;ft. Unter Laborbedingungen wurden zum einen akustisch definierte &#8222;Standardsituationen&#8220; (Sprache in Ruhe, Sprache im St&#246;rger&#228;usch) sowie eine komplexe Situation (Sprache im St&#246;rger&#228;usch zusammen mit Musik) &#252;ber einen Lautsprecherkreis konstruiert und anhand von 3- und 8-Stunden-Messungen ausgewertet. </Pgraph><Pgraph>Die Ergebnisse zeigen, dass die Tragedauer insgesamt sehr zuverl&#228;ssig aufgezeichnet wird, die H&#246;rumgebung hingegen je nach Situation und Hersteller besser und schlechter erfasst wird.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>Data logging (DL) is used to compare the patients&#8217; testimonials about how often they used their hearing aids. In addition, the hearing aid acoustician can compare how long and in which acoustic environments the patients wore their hearing aids. The hearing aid users&#8217; statements often deviate from the information gained from DL. This raises the question of whether and when complications can occur in the recording of wearing behavior.</Pgraph><Pgraph>The present study examined the reliability of DL and the factors that can affect it. In addition to the duration of the logging, the situation detection for three different manufacturers was also investigated. Different acoustic situations were designed using eight loudspeakers while the duration of measurement was three and eight hours.</Pgraph><Pgraph>The results show that de documentation of the overall wearing time is very reliable, while reliability for detecting the hearing environment depends on the situation a manufacturer.</Pgraph></Abstract>
    <TextBlock linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Eine gute H&#246;rsystemanpassung hat stattgefunden, wenn die Kunden in m&#246;glichst vielen Situationen von ihrem H&#246;rsystem profitieren und sie dieses als eine notwendige Unterst&#252;tzung in ihrem Leben akzeptiert haben. Bis dahin ist es oft ein langer und nicht sehr einfacher Weg.</Pgraph><Pgraph>Um den Zustand der ganzheitlichen Akzeptanz und des vollwertigen Nutzens des Systems zu erreichen, ist eine Zusammenarbeit zwischen H&#246;rakustiker und Kunde unabdinglich. Diese Zusammenarbeit besteht im Wesentlichen aus den R&#252;ckmeldungen des Kunden und der darauffolgenden Reaktion des Anpassers. Der Kunde beschreibt Situationen, in welchen die Unterst&#252;tzung durch das H&#246;rger&#228;t nicht ausreichend oder dessen Einstellung nicht optimal war. In Reaktion darauf, kann der H&#246;rakustiker die Programmierung f&#252;r die genannten Situationen optimieren. Unterst&#252;tzend zu der Aussage des Kunden, ist es dem H&#246;rakustiker m&#246;glich, mit Hilfe des Data Loggings der Ger&#228;te nachzuvollziehen, wie lange und in welchen Situationen das Ger&#228;t getragen wurde.</Pgraph><Pgraph>Immer wieder kommt man als H&#246;rakustiker in die Situation, dass Angaben des Kunden von den objektiven Werten im Data Logging abweichen. Die Herausforderung f&#252;r den H&#246;rakustiker besteht darin, zu entscheiden, ob die Einstellung des Ger&#228;tes auf Grundlage des Data Loggings oder der Kundenaussage optimiert wird.</Pgraph><Pgraph>Bevor man Aussagen &#252;ber das Data Logging machen kann, muss gekl&#228;rt werden, was genau Data Logging ist und wodurch es beeinflusst werden k&#246;nnte. Im Zusammenhang mit der Situationserkennung und dessen Aufzeichnungen im Data Logging, stellt sich ebenfalls die Frage, wie die H&#246;rger&#228;te in der entsprechenden Situation reagieren. Je nach Situation greift bei den einen Ger&#228;ten eine Programmautomatik und bei anderen kommt es zus&#228;tzlich oder ausschlie&#223;lich zu einer Situationsanpassung durch adaptive Parameter. Im Laufe der Studie spielt ebenfalls die binaurale Synchronisation eine wesentliche Rolle. Hier wird vermutet, dass auch sie die Dokumentationen im Data Logging beeinflussen kann.</Pgraph><Pgraph>Ziel der vorliegenden Arbeit war es im Wesentlichen herauszufinden, wie zuverl&#228;ssig die Aufzeichnungen des Data Loggings die akustische Umgebung der H&#246;rger&#228;tetr&#228;ger reproduzieren. Dabei sollte besonders verglichen werden, wie sich die Genauigkeit der Dokumentation in Abh&#228;ngigkeit der Komplexit&#228;t einer Situation &#228;ndert, wo die Grenzen liegen und ob sie durch binaurale Synchronisation beeinflusst werden kann. </Pgraph></TextBlock>
    <TextBlock linked="yes" name="Material und Methode">
      <MainHeadline>Material und Methode</MainHeadline><SubHeadline>Data Logging</SubHeadline><Pgraph>Das Data Logging ist eine Funktion der H&#246;rger&#228;te, welche Informationen unterschiedlicher H&#246;rsituationen speichert <TextLink reference="1"></TextLink>. Darunter versteht sich z.B. wie oft das H&#246;rger&#228;t insgesamt und in jeder Situation verwendet wurde oder wie der Tr&#228;ger die einzelnen Situationen eingestellt hat. Je nach Hersteller gibt es weitere Informationen, auf die hier nicht weiter eingegangen werden, da sie f&#252;r die Untersuchungen nicht relevant waren. Besonders durch das Aufzeichnen der erkannten Situationen kann beurteilt werden, ob das H&#246;rger&#228;t nicht nur eingeschaltet, sondern auch, ob es wirklich getragen wurde <TextLink reference="1"></TextLink>. So zeichnet das Data Logging zu 100&#37; &#8222;Ruhe&#8220; auf, wenn das Ger&#228;t lediglich eingeschaltet, jedoch nicht in allt&#228;glichen Situationen getragen wurde, vorausgesetzt es liegt in einer ruhigen Umgebung. F&#252;r den Fall, dass das H&#246;rger&#228;t eingeschaltet und gleichzeitig verwendet wurde, sind dem Data Logging verschiedene Situationen mit entsprechenden prozentualen Anteilen zu entnehmen. </Pgraph><Pgraph>Durch die genannten Dokumentationen, kann neben der Information, ob das H&#246;rger&#228;t getragen wurde, ebenfalls erkannt werden, ob ein Kunde in bestimmten Situationen immer wieder die gleiche &#196;nderung, wie z.B. die Anpassung der Lautst&#228;rke, vornahm <TextLink reference="2"></TextLink>. Dies kann f&#252;r den H&#246;rakustiker zum Anlass genommen werden, die Einstellung des Ger&#228;tes entsprechend zu &#228;ndern und den Komfort inklusive der Tragebereitschaft f&#252;r den Tr&#228;ger zu erh&#246;hen. </Pgraph><Pgraph>Wie an den beschriebenen Punkten erkennbar ist, bietet das Data Logging viele M&#246;glichkeiten Informationen f&#252;r die Verbesserung der H&#246;rsystemeinstellung zu liefern. Solche Verbesserungsvorschl&#228;ge werden teilweise von Anpasssoftwares, auf Grundlage des Data Loggings, get&#228;tigt <TextLink reference="2"></TextLink>. In wie weit man diese umsetzen sollte, ist in der vorliegenden Arbeit zu kl&#228;ren.</Pgraph><Pgraph>Insgesamt kann demnach gesagt werden, dass das Data Logging bei der Anpassung von H&#246;rger&#228;ten helfen kann. Gerade dadurch, dass die H&#246;rger&#228;tetr&#228;ger die Nutzungsdauer der Ger&#228;te oftmals &#252;bersch&#228;tzen <TextLink reference="3"></TextLink>, bietet das Data Logging einen hilfreichen Anhaltspunkt.</Pgraph><Pgraph>Um letzten Endes die Aussagekraft und vor allem die Funktionsf&#228;higkeit des Data Loggings zu erfassen, ist es wichtig zu erkennen, wie der Prozess des Data Loggings funktioniert. Ulrich und Hoffmann <TextLink reference="2"></TextLink> beschreiben, dass die akustischen Daten der jeweiligen Situation in Echtzeit in einem Halbspeicher (EEPROM) abgelegt werden. Die Zeit wird von Timern abgeleitet, welche praktisch eine interne Uhr darstellen und den Speichervorgang regelm&#228;&#223;ig ansto&#223;en. Die gespeicherten Datens&#228;tze k&#246;nnen anschlie&#223;en ausgelesen und als Anpasshilfe eingesetzt werden <TextLink reference="2"></TextLink>. Mueller <TextLink reference="4"></TextLink> erkl&#228;rt, ab wann welcher Hersteller mit der Aufzeichnung im Data Logging beginnt und in welchen Intervallen er diese aktualisiert. Laut M&#252;ller beginne Hersteller A die Dokumentation nach 30 Minuten, w&#228;hrend die Situation alle 5 Minuten gemessen und die Aufzeichnung alle 60 Minuten aktualisiert wird. Hersteller B dagegen, speichere die Aufzeichnung im 15-Minuten-Takt <TextLink reference="4"></TextLink>.</Pgraph><SubHeadline>Situationserkennung</SubHeadline><Pgraph>Die Grundlage des Data Loggings ist die Situationserkennung. Um aufzuzeichnen, zu welchem Anteil sich der H&#246;rsystemtr&#228;ger in einer Situation befand, muss gew&#228;hrleistet sein, dass die H&#246;rger&#228;te die Situation erkennen. &#8222;Moderne H&#246;rsysteme sollten sich an die jeweilige akustische Situation so anpassen, dass sie dem Nutzer unaufdringlich und dennoch hilfreich jeweils die Einstellung und Unterst&#252;tzung in der jeweiligen H&#246;rsituation liefern, die er ben&#246;tigt.&#8220; <TextLink reference="5"></TextLink>.</Pgraph><Pgraph>Voraussetzung f&#252;r diese F&#228;higkeit stellt ein Klassifikationssystem dar. Dies sind intelligente Algorithmen, die den anderen Stufen der Signalverarbeitung (z.B. Algorithmen zur Reduktion von St&#246;rger&#228;uschen) &#252;bergeordnet sind. &#8222;Sie analysieren permanent die Mikrofonsignale, erkennen wichtige H&#246;rsituationen und w&#228;hlen dann automatisch die optimale H&#246;rger&#228;teeinstellung&#8220; <TextLink reference="6"></TextLink>. Dieser allgemeine Vorgang, ein Eingangssignal &#252;ber die Merkmalsextration auf spezifische Muster zu untersuchen, ist bei jedem Hersteller gleich <TextLink reference="6"></TextLink>. Unterschiede zwischen ihnen bestehen jedoch besonders in dem Punkt &#8222;Merkmalsextraktion&#8220;, da abh&#228;ngig von der G&#252;te dieses Prozesses die Situationserkennung verbessert werden kann. Ein Hersteller versucht diesen Prozess z.B. mit Hilfe der &#8222;Auditorischen Szenenanalyse&#8220;, welche die Mechanismen und Strategien beschreibt, die das auditorische System verwendet, zu optimieren, um die akustische Umgebung zu analysieren <TextLink reference="7"></TextLink>. Dahingegen analysiert ein anderer Hersteller das Eingangssignal &#252;ber die Merkmalsextration auf Muster im Sprech- und Bewegungsverhalten des H&#246;rger&#228;tetr&#228;gers <TextLink reference="8"></TextLink>. In der vorliegenden Studie werden auf Grund der unterschiedlichen Vorgehensweisen in der Merkmalsextraktion, die Aufzeichnungen im Data Logging f&#252;r verschiedene Hersteller verglichen. </Pgraph><SubHeadline>Anpassung der H&#246;rsysteme an die akustische Umgebung</SubHeadline><Pgraph>Die automatische Anpassung der H&#246;rger&#228;te an die akustische Umgebung weist zwischen den Herstellern zwei grunds&#228;tzliche Unterschiede auf: Die Verwendung einer Programmautomatik und das alleinige Anpassen der adaptiven Parameter. Im Rahmen einer Programmautomatik, wird automatisch ein f&#252;r die Situation entsprechendes Programm aktiv bzw. Anteile mehrerer Programme gemischt, sobald das H&#246;rger&#228;t eine bestimmte Situation erkennt. In diesen Programmen werden abh&#228;ngig von der akustischen Umgebung Faktoren, wie z.B. Zeitkonstanten, Kompression, Verst&#228;rkung und St&#246;rger&#228;uschunterdr&#252;ckung angepasst. Die Herausforderung besteht darin, die Umgebung korrekt zu identifizieren, pl&#246;tzliche &#196;nderungen der H&#246;rumgebung zu erkennen und die Anpassung dementsprechend und mit wenigen Artefakten umzustellen bzw. in das entsprechende H&#246;rprogramm zu wechseln <TextLink reference="9"></TextLink>. Nicht jeder Hersteller arbeitet mit automatischen H&#246;rprogrammen, die sich je nach H&#246;rsituation automatisch einstellen und aktiv vom H&#246;rakustiker ver&#228;ndert werden k&#246;nnen. Bei allen Herstellern findet man allerdings adaptive Parameter, die sich entsprechend der H&#246;rsituation anpassen. Bei manchen H&#246;rger&#228;ten findet dieser Prozess im H&#246;rprogramm, bei anderen Ger&#228;ten nur in Abh&#228;ngigkeit der Situation statt. Das bedeutet, die &#196;nderungen gestalten sich nicht durch den Wechsel in ein anderes Programm, sondern finden in ein und demselben Programm adaptiv statt. Unter adaptiven Parametern versteht man dabei Funktionselemente, wie: Richtmikrofone, R&#252;ckkopplungs- Impulsschall-, St&#246;rger&#228;uschunterdr&#252;ckung, etc. Diese werden nach der Analyse und Erkennung der Umgebungssignale angepasst. So stellt sich das H&#246;rsituationsmanagement und die daraus resultierende Signalanpassung eines Herstellers aus drei Teilen (Direktionalit&#228;t, H&#246;rkomfort und Musik) zusammen <TextLink reference="10"></TextLink>, w&#228;hrend ein anderer Hersteller ebenfalls die Parameter ver&#228;ndert, dies jedoch in einem festgelegten Programm geschieht <TextLink reference="11"></TextLink>. Der Hauptunterschied zwischen der Programmautomatik und der Anpassung der adaptiven Parameter besteht im Wesentlichen darin, dass innerhalb der Programmautomatik zus&#228;tzlich gezielt die Verst&#228;rkung pro Frequenz ge&#228;ndert wird. </Pgraph><SubHeadline>Komplexe Situationen</SubHeadline><Pgraph>Im Verlauf dieser Arbeit, wurde vermehrt der Ausdruck &#8222;komplexe Situation&#8220; verwendet. Dieser Ausdruck ist nach eigenem Ermessen definiert und soll eine Situation beschreiben, die im Data Logging der H&#246;rger&#228;te nicht klar definiert ist. &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im St&#246;rger&#228;usch&#8220;, etc. sind &#8222;Standardsituationen&#8220; mit denen die Hersteller arbeiten. D.h. es sind Situationen, die eigenst&#228;ndig im Data Logging hinterlegt sind und beim Auslesen der H&#246;rger&#228;te angeben zu welchem Anteil die entsprechende Situation erkannt wurde. Eine komplexe Situation stellt hier ein Szenario dar, welches sich z.B. aus unterschiedlichen &#8222;Standardsituationen&#8220; (Sprache im St&#246;rger&#228;usch, Musik, Sprache in Ruhe) zusammensetzt. In der vorliegenden Arbeit wird dies anhand eines Bar-Szenarios wiedergespiegelt, d.h. eine Situation, die in der Art nicht separat benannt im Data Logging existiert. Diese Situation sollte in erster Linie verwendet werden, um die Grenzen der Aufzeichnung bzw. Entschl&#252;sselung von H&#246;rsituationen zu testen.</Pgraph><SubHeadline>Binaurale Synchronisation</SubHeadline><Pgraph>F&#252;r die Studie wurden H&#246;rger&#228;te verwendet, welche mit binauraler Synchronisation arbeiten. Unter binauraler Synchronisation versteht man die gemeinsame Analyse der Umwelt beider H&#246;rger&#228;te, wodurch unteranderem gezielt die Richtmikrofone und das L&#228;rm-Management gesteuert werden k&#246;nnen <TextLink reference="12"></TextLink>. Positive Auswirkungen hat dies vor allem auf den Komfort und die Leistung <TextLink reference="1"></TextLink>, wie z.B. auf die bereits angesprochene Programmautomatik, durch welche f&#252;r bestimmte Situationen die Sprachverst&#228;ndlichkeit erh&#246;ht wird <TextLink reference="13"></TextLink>. M&#246;glich ist dies durch einen Abgleich aller vier H&#246;rsystemmikrofone untereinander <TextLink reference="10"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="15"></TextLink>. Laut Dillon <TextLink reference="1"></TextLink>, bedeutet binaurale Synchronisation nicht gleichzeitig, dass Signale immer auf beiden H&#246;rger&#228;ten wiedergegeben werden. Sie unterscheidet z.B. ob es sich bei lauten tonalen Komponenten um eine Verst&#228;rkung von Musik oder um R&#252;ckkopplung handelt. Im Falle von R&#252;ckkopplung wird diese &#252;ber eine Seite reguliert, w&#228;hrend es bei Musik &#252;ber beide Seiten geschieht <TextLink reference="1"></TextLink>. Daraus leitet sich die Frage ab, ob binaurale Synchronisation ebenfalls die Genauigkeit der Aufzeichnungen im Data Logging beeinflusst.</Pgraph><SubHeadline>Grenzen der Situationserkennung</SubHeadline><Pgraph>&#220;ber die Zuverl&#228;ssigkeit und Genauigkeit der Aufzeichnungen im Data Logging ist bisher wenig bekannt. Vereinzelte Studien besch&#228;ftigen sich mit den Klassifikationsalgorithmen zur Erkennung von Umgebungssituationen. Wie oben bereits beschrieben, kann jedoch aus einer zuverl&#228;ssigen Klassifikation auf eine genaue Aufzeichnung im Data Logging geschlossen werden.</Pgraph><Pgraph>In einer Ver&#246;ffentlichung von Banerjee <TextLink reference="16"></TextLink> wurden, im Rahmen einer Studie &#252;ber das automatische Verhalten von Expansion, Direktionalit&#228;t und L&#228;rm-Management die Dokumentationen im Data Logging ausgewertet. Hierbei kam man zu der Erkenntnis, dass das Data Logging Einblicke in die individuelle Nutzung des Tr&#228;gers bietet, es aber keine direkten Ver&#246;ffentlichungen zu der Interpretation der Ergebnisse gebe. Zudem w&#252;rden lediglich Zusammenfassungen f&#252;r einzelne Merkmale geliefert und komplexe Interaktionen, einschlie&#223;lich der Unterschiede des rechten und linken Ger&#228;tes, ignoriert werden <TextLink reference="16"></TextLink>.</Pgraph><Pgraph>Im Gegensatz dazu, besch&#228;ftigt sich die Studie von Nordqvist und Leijon <TextLink reference="17"></TextLink> mit einem Klassifikationsalgorithmus, welcher auf dem Markov Modell basiert. Es wird gepr&#252;ft, wie gut der Algorithmus zwischen drei Situationen (Sprache in Verkehrsl&#228;rm, Sprache in &#8222;Gebrabbel&#8220;, klare Sprache) unterscheiden kann. F&#252;r Ger&#228;usche, welche die jeweilige Situation repr&#228;sentieren, wurde eine Trefferquote von 96,7&#37; bis 99,5&#37; erzielt <TextLink reference="17"></TextLink>.</Pgraph><Pgraph>Entgegen der Erkenntnis von Nordqvist und Leijon, wird die Aussage von Banerjee <TextLink reference="16"></TextLink>, dass komplexe Interaktionen ignoriert werden, durch eine Studie von Wagener et al. <TextLink reference="18"></TextLink> best&#228;tigt. Wagener et al. untersuchten die verschiedenen akustischen Signale, denen ein H&#246;rger&#228;tetr&#228;ger in seiner allt&#228;glichen Umgebung ausgesetzt ist. Sie fanden heraus, dass die Bedeutung, Probleme und Vorteile von H&#246;rger&#228;ten, sowie die individuellen Charakteristiken von Situationen sehr stark variieren. Dies habe zur Folge, dass neben einer nicht-linearen H&#246;rsystemversorgung, ebenfalls weitere Signalklassifikationen und entsprechende adaptive Merkmale in modernen H&#246;rger&#228;ten w&#252;nschenswert seien. Besonders solche, die zu der sich stetig &#228;ndernden H&#246;rumgebung des Tr&#228;gers passen <TextLink reference="18"></TextLink>.</Pgraph><Pgraph>L&#246;sung f&#252;r immer wechselnde und sehr individuelle Umgebungsbedingungen, k&#246;nnte ein adaptives Klassifizierungssystem sein. Zwei solcher Systeme wurden von Lamarche et al. getestet und als genau befunden <TextLink reference="19"></TextLink>. An dieser Stelle ist jedoch anzumerken, dass die Systeme mit &#8222;Standardsituationen&#8220; (Sprache, St&#246;rger&#228;usch und Musik) getestet und individuelle H&#246;rumgebungen au&#223;er Acht gelassen wurden.</Pgraph><Pgraph>Zusammenfassend l&#228;sst sich sagen, dass es, wie oben gezeigt, sehr unterschiedliche Ver&#246;ffentlichungen in Bezug auf die Genauigkeit von Klassifikationssystemen gibt. Zwar erzielten optimierte Klassifikationsalgorithmen sehr gute Ergebnisse in der Erkennung von Umgebungsbedingungen, allerdings wurden f&#252;r diese Studien immer &#8222;Standardsituationen&#8220; verwendet <TextLink reference="17"></TextLink>, <TextLink reference="19"></TextLink>. Dagegen ist auff&#228;llig, dass Studien, welche das Data Logging verschiedener Hersteller verwenden <TextLink reference="16"></TextLink> und mit realen H&#246;rsituationen von Probanden arbeiten <TextLink reference="18"></TextLink> einstimmig auf die Grenzen in der Erkennung von H&#246;rumgebungen hinweisen. Dies gibt Grund zur Annahme, dass auch die komplexe Situation, welche im Laufe der folgenden Studie verwendet wurde, die Grenzen in der Erkennung von H&#246;rumgebungen aufzeigt, was die Auswertung des Data Loggings entsprechend erschweren w&#252;rde. Es ist zu beachten, dass es sich bei der &#8222;komplexen Situation&#8220; dieser Arbeit im Gegensatz zu Wagener et al. um eine feste akustisch definierte Situation handelte. Somit sollte sichergestellt werden, dass das Data Logging grunds&#228;tzlich die Voraussetzungen aufweist, die &#8222;komplexe Situation&#8220; zu erfassen, indem sie aus den bestehenden &#8222;Standardsituationen&#8220; (Sprache, Sprache im St&#246;rl&#228;rm und Musik) zusammengesetzt wurde. Bei Wagener et al. konnte dies nicht gew&#228;hrleistet werden, da sich die Probanden nicht zwangsweise in Umgebungen aufhielten, die genau den hinterlegten Situationen der H&#246;rger&#228;te entsprachen. </Pgraph><SubHeadline>Versuchsaufbau</SubHeadline><Pgraph>F&#252;r die m&#246;glichst realit&#228;tsgetreue &#220;berpr&#252;fung des Data Loggings wurde ein Lautsprecherkreis mit acht unabh&#228;ngigen Lautsprechern im Freifeldraum der Hochschule Aalen verwendet. Dadurch konnte eine Umgebung geschaffen werden, die einen Ruheger&#228;uschpegel von unter 16,2 dB (A) aufweist <TextLink reference="20"></TextLink>. Somit k&#246;nnen die verwendeten Pegel genau definiert und reproduziert werden.</Pgraph><Pgraph>Ebenfalls wurde ein Messmikrofon (G.R.A.S. Type 26 CA) installiert, welches mittig der Lautsprecher und auf H&#246;he der H&#246;rger&#228;te positioniert war, um vorab die genauen Pegel f&#252;r die unterschiedlichen Situationen einzustellen. F&#252;r die Messung der Pegel wurde hierbei die Sound and Vibration Software &#252;ber das PXI (NI PXIe-1062Q) von National Instruments verwendet. Durch die kreisf&#246;rmig um das H&#246;rger&#228;t angeordneten Lautsprecher wurden verschiedene Ger&#228;usche abgespielt und somit unterschiedliche Szenarien simuliert.</Pgraph><Pgraph>Der verwendete Lautsprecherkreis besteht aus acht Lautsprechern (High Definition Nearfield Studio Monitor, Eris Series (E5) von PreSonus), die mit einem Radius von ca. 120 cm in 45&#176; Abst&#228;nden angeordnet sind. Die H&#246;rger&#228;te wurden mittig dieses Kreises in einer H&#246;he von ca. 123 cm an dem Head and Torso Simulator (HATS) (Type 4128-C-001) von Br&#252;el &#38; Kjaer angebracht. </Pgraph><SubHeadline>Situationen</SubHeadline><Pgraph>F&#252;r die Studie wurden drei Situationen mit Hilfe der Ableton Live 8 Software generiert. Bei den Situationen handelte es sich um drei &#8222;Standardsituationen&#8220;, die sich nach den Schallklassen richteten, welche jeder der gew&#228;hlten Hersteller aufweisen. Generiert wurden &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im St&#246;rger&#228;usch&#8220; und &#8222;Musik&#8220;. Die vierte Situation, stellte eine komplexe, aus den &#8222;Standardsituationen&#8220; erstellte Situation dar (vgl. Abschnitt &#8222;komplexe Situation&#8220;). Mit der Kombination aus Sprache und Sprache im St&#246;rger&#228;usch mit Musik als Hintergrundger&#228;usch sollte ein &#8222;Bar-Szenario&#8220; simuliert werden. Zus&#228;tzliche Informationen der verwendeten Soundfiles sind <TextGroup><PlainText>Tabelle 1 </PlainText></TextGroup><ImgLink imgNo="1" imgType="table"/> zu entnehmen. </Pgraph><Pgraph>Durch die Verteilung der Soundfiles auf die Lautsprecher, konnten verschiedene Situationen konstruiert werden. Die erste Situation simulierte Sprache in Ruhe. Soundfi<TextGroup><PlainText>le 1 </PlainText></TextGroup>wurde dem Lautsprecher in 0&#176; zugeordnet und ein Pegel von 65 dB eingestellt <TextLink reference="21"></TextLink>. F&#252;r die zweite Situation, &#8222;Sprache im St&#246;rger&#228;usch&#8220;, wurde Sprache aus 0&#176; und das St&#246;rger&#228;usch aus 45&#8211;315&#176; dargeboten. Der Pegel der Sprache betrug hierbei ebenfalls 65 dB SPL und der Gesamtpegel des St&#246;rger&#228;usches 60 dB SPL. Um einen Pegel von 60 dB SPL St&#246;rger&#228;usch zu gew&#228;hrleisten, wurden zun&#228;chst nur die Lautsprecher von 45 bis 315&#176; aktiviert und so eingestellt, dass der Gesamtpegel des St&#246;rger&#228;usches bei 60 dB SPL lag. Es wurde darauf geachtet, dass Soundfile 2 pro Lautsprecher zu unterschiedlichen Zeitpunkten startete und die Pegel der einzelnen Lautsprecher &#252;ber alle Lautsprecher gleich waren. </Pgraph><Pgraph>Situation 3 simulierte das H&#246;ren von Musik. Hier wurde aus allen Lautsprechern Musik mit einem Gesamtpegel von 80 dB SPL <TextLink reference="22"></TextLink> wiedergegeben, wobei die Einzelpegel der Lautsprecher identisch waren. Die letzte Situation stellte die &#8222;komplexe Situation&#8220; (&#8222;Bar-Szenario&#8220;) dar. Hier wurde Sprache von vorne mit einem Pegel von 65 dB SPL und dem St&#246;rger&#228;usch, bestehend aus Musik und Restaurant-Ger&#228;uschen (60 dB SPL Gesamtschalldruckpegel) dargeboten, wobei Soundfile 2 und 3 abwechselnd auf die Lautsprecher verteilt wurden Diese Art von Situation wurde konstruiert, um eine m&#246;glichst realistische Situation aus bestehenden &#8222;Standardsituationen&#8220; aufzubauen und damit sicherzustellen, dass diese &#8222;komplexe Situation&#8220; nur Anteile umfasst, die einzeln in jedem Data Logging der H&#246;rger&#228;te implementiert sind. Da die Soundfiles in ihrer L&#228;nge begrenzt sind (Tabelle 1 <ImgLink imgNo="1" imgType="table"/>) werden diese im Laufe der mehrst&#252;ndigen Messungen kontinuierlich wiederholt. Eine Zusammenfassung der Zusammenstellung der verwendeten Situationen ist in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> dargestellt.</Pgraph><SubHeadline>H&#246;rsysteme</SubHeadline><Pgraph>Die drei f&#252;r die vorliegende Studie verwendeten H&#246;rger&#228;te unterschiedlicher Hersteller, waren alle in ihrer Qualit&#228;tsstufe vergleichbar, da sie die Voraussetzung besa&#223;en, mindestens drei vergleichbare Situationen erkennen k&#246;nnen, aus welchen sich das &#8222;Bar-Szenario&#8220; zusammensetzte. Wie oben bereits beschrieben handelt es sich um die Szenarien &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im St&#246;rger&#228;usch&#8220; und &#8222;Musik&#8220;.</Pgraph><Pgraph>Oftmals ist, ab einer bestimmten Technologiestufe die binaurale Synchronisation Teil der H&#246;rsystemausstattung. Um die Vergleichbarkeit der H&#246;rger&#228;te zu gew&#228;hrleisten, war darauf zu achten, dass jedes H&#246;rger&#228;t die benannte Funktion beinhaltet. W&#252;rde dies missachtet werden, so ist es m&#246;glich, dass sich die Angaben im Data Logging unterscheiden, da ein H&#246;rger&#228;t die Signale der rechten und linken Seite zu einem Eindruck verrechnet <TextLink reference="8"></TextLink>, ein anderes dies wiederum nicht umsetzt und somit bereits Unterschiede zwischen den Seiten generiert werden, trotz urspr&#252;nglich richtiger Klassifizierung. Alle drei H&#246;rger&#228;te ver&#228;ndern ihre Einstellung, abh&#228;ngig von der Situation, in welcher sie sich befinden. Zwei der gew&#228;hlten Hersteller realisieren dies &#252;ber die Anpassung der adaptiven Parameter, der andere dagegen verwendet eine Programmautomatik. </Pgraph><Pgraph>Auch, wenn die Einstellung der H&#246;rger&#228;te keinen Einfluss auf das Data Logging haben d&#252;rfte, wurden alle auf einen H&#246;rverlust von pantonal 40 dB HL programmiert. Die Einstellung erfolgte nach NAL-NL2 mit jeweils der Akklimatisierungsstufe eines erfahrenen Anwenders (100&#37;) und einer Ankopplung mittels Standardschlauch und einer geschlossenen Otoplastik.</Pgraph><SubHeadline>Pilotstudie: &#220;berpr&#252;fung der Situationserkennung und Programmautomatik</SubHeadline><Pgraph>In einer Pilotstudie wurden die Faktoren ermittelt, die zu einer fehlerhaften Aufzeichnung im Data Logging f&#252;hren k&#246;nnten. Dazu betrachtete man zum einen den Einfluss des Kunstkopfes auf die binaurale Synchronisation und zum anderen &#252;berpr&#252;fte man die Funktionsf&#228;higkeit der Programmautomatik. Aus vorherigen Untersuchungen gab der verwendete Kunstkopf Grund zur Annahme, dass er m&#246;glicherweise die binaurale Synchronisation der H&#246;rger&#228;te st&#246;rt, da er Bestandteile aus Metall aufweist. Es wurde daher gepr&#252;ft, ob sich das Ausgangssignal bei gleicher Einstellung f&#252;r aktivierte und deaktivierte binaurale Synchronisation unterscheidet. Mithilfe der manuellen Programm- und Lautst&#228;rke&#228;nderung an den H&#246;rger&#228;ten wurde ebenfalls gepr&#252;ft, ob neben der aktivierten binauralen Synchronisation, tats&#228;chlich eine Verbindung zwischen den beiden Ger&#228;ten bestand. Im Rahmen dieser Messungen stellte sich heraus, dass der Kunstkopf keinen Einfluss auf die binaurale Synchronisation aufwies und bedenkenlos f&#252;r die Hauptstudie verwendet werden konnte. </Pgraph><Pgraph>Das Ziel der vorliegenden Studie war es herauszufinden, wie zuverl&#228;ssig die Aufzeichnungen der akustischen Umgebung im Data Logging der H&#246;rger&#228;te sind. Es sollte herausgefunden werden, ob H&#246;rakustiker durch das Auslesen des Data Loggings bedenkenlos R&#252;ckschl&#252;sse auf den akustischen Alltag eines H&#246;rger&#228;tetr&#228;gers schlie&#223;en k&#246;nnen. Um diesbez&#252;glich zuverl&#228;ssige Aussagen treffen zu k&#246;nnen war es n&#246;tig, vorab zu pr&#252;fen, ob grunds&#228;tzlich eine automatische Anpassung der H&#246;rger&#228;te an die akustische Umgebung stattfindet. Besonders f&#252;r Hersteller A, in dessen H&#246;rger&#228;ten die genannte Programmautomatik verwendet wird, muss zuvor sichergestellt werden, dass die verwendeten Standardsituationen (Sprache in Ruhe, Sprache im St&#246;rger&#228;usch und Musik. Vgl. Tabelle 2 <ImgLink imgNo="2" imgType="table"/>) im Einzelnen erkannt werden. Sollte vorher festzustellen sein, dass bereits die Klassifikation der akustischen Umgebung und somit die Programmautomatik fehlerhaft oder ungenau ist, so w&#228;re die &#220;berpr&#252;fung des Data Loggings hinf&#228;llig. Denn im Gegensatz zu Hersteller B und C, dessen Data Logging die erkannten Situationen und nicht die H&#246;rger&#228;teeinstellungen aufzeichnen, gibt das Data Logging von Hersteller A an, zu welchen Anteilen sich das H&#246;rger&#228;t in welchem Automatikprogramm befand. In Anlehnung an Husstedt <TextLink reference="23"></TextLink> wurde daher die Funktionsf&#228;higkeit der Programmautomatik &#252;ber die Beobachtung der &#196;nderung des Frequenzganges gepr&#252;ft. Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> zeigt das Vorgehen f&#252;r die &#220;berpr&#252;fung der Programmautomatik. F&#252;r das Programm &#8222;Sprache in Ruhe&#8220; der Programmautomatik wurde die Verst&#228;rkung auf das Minimum gesetzt, f&#252;r &#8222;Sprache im St&#246;rger&#228;usch&#8220; wurde die Verst&#228;rkung maximal erh&#246;ht und f&#252;r &#8222;Musik&#8220; wurde die Verst&#228;rkung der tiefen Frequenzen von 0,25 bis 1 kHz maximal angehoben und im hochfrequenten Bereich maximal abgesenkt.</Pgraph><Pgraph>Es wurden die Situationen &#8222;Sprache in Ruhe&#8220;; &#8222;Sprache im St&#246;rschall&#8220; und &#8222;Musik&#8220; mit jedem H&#246;rger&#228;t separat gemessen, um sicherzustellen, dass die Situation eindeutig erkannt wird. Da man die Verst&#228;rkung f&#252;r das Programm &#8222;Sprache in Ruhe&#8220; &#252;ber alle Frequenzen hinweg auf das Minimum reduzierte, wurde erwartet, dass das Ursprungssignal bei richtiger automatischer Programmwahl nicht ver&#228;ndert wird. Nachdem die erste Messung zeigte, dass das H&#246;rger&#228;t f&#252;r die Situation &#8222;Sprache in Ruhe&#8220; automatisch die richtige Einstellung w&#228;hlte wurde die Messung wiederholt und das Ergebnis der ersten Messung best&#228;tigt. Anschlie&#223;end wurde mit der Situation &#8222;Sprache im St&#246;rger&#228;usch&#8220; nach dem gleichen Messprinzip fortgefahren und ebenfalls best&#228;tigt, dass das H&#246;rsystem die Situation &#8222;Sprache im St&#246;rger&#228;usch&#8220; erkennt und die Einstellung automatisch und korrekt angepasst wird. In einem letzten Messdurchgang wiederholte man die vorherigen Versuche f&#252;r die Situation &#8222;Musik&#8220; und stellte fest, dass es zu kleineren Abweichungen kam. Der erwartete &#220;bergang im Ausgangssignal von viel Verst&#228;rkung der tiefen zu keiner Verst&#228;rkung der hohen Frequenzen (vgl. &#8222;Ausgangssignal bei Musik&#8220; Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>) war deutlich sichtbar, jedoch nicht mit der Steilheit, wie sie zuvor in der Anpasssoftware f&#252;r das Automatikprogramm &#8222;Musik&#8220; eingestellt wurde. </Pgraph><Pgraph>Insgesamt konnte gezeigt werden, dass jede Standardsituation bei alleiniger Darbietung von jedem Hersteller erkannt und der automatische Programmwechsel, bei Herstellern die diesen verwenden, zuverl&#228;ssig vorgenommen wurde. </Pgraph><SubHeadline>Hauptstudie: &#220;berpr&#252;fung der korrekten Aufzeichnung des Data Loggings</SubHeadline><Pgraph>Nachdem in der Pilotstudie gezeigt werden konnte, dass die verwendeten H&#246;rger&#228;te in der Lage sind die Standardsituationen &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im St&#246;rger&#228;usch&#8220; und &#8222;Musik&#8220; als einzelne Situationen zu erkennen, folgte die &#220;berpr&#252;fung der Aussagekraft des Data Loggings. Ziel war es zu evaluieren, wie zuverl&#228;ssig das Data Logging die akustische Umgebung eines H&#246;rger&#228;tetr&#228;gers aufzeichnet und welche Faktoren die Genauigkeit dieser Dokumentation beeinflussen k&#246;nnen. Folgende Fragenstellungen standen dabei im Fokus, wobei zu beachten gilt, dass die Ausdr&#252;cke &#8222;Standardsituationen&#8220; und &#8222;komplexe Situation&#8220;, so zu verstehen sind, wie bereits in den oberen Abschnitten definiert:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Wie zuverl&#228;ssig werden Standardsituationen im Data Logging aufgezeichnet&#63;</ListItem><ListItem level="1" levelPosition="2" numString="2.">Beg&#252;nstigt eine l&#228;ngere Tragezeit&#47;Aufzeichnungsdauer die Genauigkeit des Data Loggings&#63;</ListItem><ListItem level="1" levelPosition="3" numString="3.">Wie zuverl&#228;ssig werden &#8222;komplexe Situationen&#8220; aufgezeichnet, die nicht eindeutig als Standardsituation bewertet werden k&#246;nnen (Bsp. &#8222;Bar-Szenario)&#63; </ListItem><ListItem level="1" levelPosition="4" numString="4.">Hat die binaurale Synchronisation Einfluss auf die Genauigkeit der Datenaufzeichnung&#63;</ListItem></OrderedList></Pgraph><Pgraph>Um zu ermitteln, wie zuverl&#228;ssig Standardsituationen aufgezeichnet werden und ob die Genauigkeit durch eine l&#228;ngere Aufzeichnungsdauer beg&#252;nstigt wird, wurde <TextGroup><PlainText>zun&#228;chst</PlainText></TextGroup> eine 8- und anschlie&#223;end 3-Stunden-Messung f&#252;r jeden der drei Hersteller durchgef&#252;hrt. In allen Messdurchl&#228;ufen wurden die drei Standardsituationen zu gleichen Anteilen dargeboten. Im ersten Drittel der 8- bzw. 3-Stunden-Messung wurde &#8222;Sprache in Ruhe&#8220;, im n&#228;chsten Drittel &#8222;Sprache im St&#246;rger&#228;usch&#8220; und im letzten Drittel &#8222;Musik&#8220; vorgespielt. Es ist hervorzuheben, dass in w&#228;hrend dieser Messung, jede Situation einzeln dargeboten wurde und nie eine Kombination der Situationen zustande kam.  In einer weiteren Messung wurde daraufhin getestet, wie eine &#8222;komplexe Situation&#8220; im Data Logging dokumentiert wird. Diese &#8222;komplexe Situation&#8220; stellte eine Kombination der Standardsituationen dar und reproduzierte eine Umgebung, wie sie z.B. in einer Bar vorzufinden sein k&#246;nnte. F&#252;r dieses Szenario wurde eine Messdauer von zwei Stunden gew&#228;hlt. Die Dauer der Messungen basierte auf den Funktionsweisen des Data Logging der Hersteller, welche im Teil &#8222;Data Logging&#8220; beschrieben ist.</Pgraph><Pgraph>Die Pilotstudie zeigte bereits, dass der Kunstkopf keinen Einfluss auf die binaurale Synchronisation der H&#246;rger&#228;te hat. Vor dem Hintergrund monauraler H&#246;rger&#228;teversorgungen, sollte ebenfalls erfasst werden, ob die Synchronisation zweier Ger&#228;te zur genaueren Erfassung der akustischen Umgebung beitr&#228;gt. Die zuvor beschriebene 3-Stunden-Messung fand daher erneut statt, wobei diesmal jeweils nur eins der beiden H&#246;rger&#228;te aktiv und damit die binaurale Synchronisation getrennt war.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><SubHeadline>Aufzeichnungen des Data Loggings</SubHeadline><Pgraph>Im Folgenden wird jeder Messaufbau (3- und 8-Stunden-Messung; Bar-Szenario) einzeln ausgewertet. Pro Messaufbau ist jeweils eine Grafik dargestellt, welche die Ergebnisse aller rechten und aller linken Ger&#228;te der unterschiedlichen Hersteller gegen&#252;berstellt. Dies sorgt f&#252;r die bessere Vergleichbarkeit der Hersteller untereinander, da es vor allem f&#252;r das Bar-Szenario, trotz aktiver binauraler Synchronisation und identischen Umgebungsbedingungen zu unterschiedlichen Ergebnissen (auch innerhalb eines Herstellers) kam. </Pgraph><Pgraph>Die folgenden Abbildungen stellen die Ergebnisse der Messungen dar. Auf der Abszisse wird der prozentuale Anteil der aufgezeichneten Situation aufgetragen. Die Ordinate zeigt die Situationen &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im SG&#8220; und &#8222;Musik&#8220; an. Der schwarze Balken stellt den zu erwarteten Anteil dar. </Pgraph><Pgraph>Abbildung 2 <ImgLink imgNo="2" imgType="figure"/> stellt die Aufzeichnungen der verschiedenen Hersteller f&#252;r die 3-Stunden-Messung der Standardsituationen dar. &#8222;Sprache in Ruhe&#8220; wird am genausten von Hersteller B, mit einer Abweichung von ca. 2&#37; zum Soll, erkannt. Hersteller A dagegen weicht ca. 12&#37; und Hersteller C ca. 15&#37; ab. &#8222;Sprache im SG&#8220; wird von Hersteller A und B ann&#228;hernd gleich erkannt, wobei auch hier eine ungef&#228;hre Abweichung von 5&#37; zur Realsituation vorliegt. Hersteller C erkennt, diese Situation mit einer Abweichung von ca. 20&#37; am schlechtesten. Musik dagegen, erkennt dieser Hersteller im Vergleich zu den anderen Herstellern am besten. Mit Anteilen bei Musik von ca. 25, 18 und 29&#37; entsprechen sie jedoch alle nicht dem realen Anteil von 33&#37;.</Pgraph><Pgraph>Die in Abbildung 3 <ImgLink imgNo="3" imgType="figure"/> aufgezeigte 8-Stunden-Messung unterscheidet sich kaum, von den Ergebnissen der 3-Stunden-Messung. Insgesamt schneiden hier aber alle Hersteller tendenziell schlechter ab, als bei der 3-Stunden-Messung, wobei ebenfalls auff&#228;llig ist, dass sich die Aufzeichnungen des jeweils rechten und linken H&#246;rger&#228;tes eines Herstellers unterscheiden.</Pgraph><Pgraph>Das Bar-Szenario (Abbildung 4 <ImgLink imgNo="4" imgType="figure"/>) bestand aus den drei Hauptsituationen &#8222;Sprache&#8220;, &#8222;St&#246;rger&#228;usch&#8220; und &#8222;Musik&#8220;. Auf einen Soll-Wert wurde an dieser Stelle verzichtet, da das Bar-Szenario unterschiedlich interpretiert werden kann und es keine feste Zuordnung, wie es bei den einzelnen Situationen der Fall ist, gibt. Dennoch ist f&#252;r jeden Hersteller ein deutlicher Unterschied in der Dokumentation erkennbar, wodurch sich keine direkte Aussage treffen l&#228;sst, wer die komplexe Situation am realit&#228;tsgetreusten aufgezeichnet hat. Zus&#228;tzlich f&#228;llt f&#252;r Hersteller A und C deutlich auf, dass es auch zwischen der jeweils rechten und linken Seite zu gro&#223;en Differenzen kam. W&#228;hrend bei Hersteller A Abweichungen von bis zu 20&#37; (Sprache im SG) entstehen, kommt es bei Hersteller C zu ca. 25&#37;.</Pgraph><SubHeadline>Einfluss der binauralen Synchronisation auf die Situationserkennung</SubHeadline><Pgraph>Abbildung 5 <ImgLink imgNo="5" imgType="figure"/> zeigt die Aufzeichnungen des Data Loggings bei aktivierter und deaktiver binauraler Synchronisation bei einzelner Darbietung der Klangbeispiele. Bei deaktivierter binauraler Synchronisation zeigt sich f&#252;r &#8222;Sprache in Ruhe&#8220; und &#8222;Musik&#8220;, dass es zu Abweichung von bis zu 40&#37; kommt. W&#228;hrend Musik nicht erkannt wurde, stieg der Anteil f&#252;r &#8222;Sprache in Ruhe&#8220;.</Pgraph><Pgraph>Vergleicht man die Aufzeichnungen bei deaktivierter mit denen f&#252;r aktivierte binaurale Synchronisation, so sind deutliche Unterschiede erkennbar. Im Vergleich zu den Ergebnissen bei deaktivierter Synchronisation n&#228;hern sich die aufgezeichneten Anteile dem Soll-Zustand an. W&#228;hrend zuvor keine Musik erkannt wurde, liegt der Anteil erkannter Musik durch die Aktivierung der Synchronisation bei ca. 18&#37;. Dennoch liegen weiterhin Abweichungen f&#252;r &#8222;Sprache in Ruhe&#8220; und &#8222;Musik&#8220; bei bis zu 15&#37; vor. &#8222;Sprache im SG&#8220; wurde deutlich genauer erkannt und wies maximale Abweichungen von ca. 5&#37; auf.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>Ziel der vorliegenden Arbeit war es, zu untersuchen, wie zuverl&#228;ssig das Data Logging die akustische Umgebung eines H&#246;rger&#228;tetr&#228;gers reproduzieren kann. Dabei sollte untersucht werden, ob die Genauigkeit der Aufzeichnung durch eine l&#228;ngere Messdauer beg&#252;nstigt werden kann, wie &#8222;komplexe Situationen&#8220; mit Sprache, Musik und St&#246;rger&#228;usch erfasst werden und welchen Einfluss die binaurale Synchronisation der H&#246;rger&#228;te auf die Dokumentation hat.</Pgraph><Pgraph>Bevor die Genauigkeit des Data Loggings zuverl&#228;ssig bestimmt werden konnte, musste sichergestellt werden, dass die H&#246;rger&#228;te grunds&#228;tzlich in der Lage sind, die verwendeten Standardsituationen &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im St&#246;rger&#228;usch&#8220; und &#8222;Musik&#8220; zu erkennen und ihre Einstellung entsprechend der Situation automatisch zu &#228;ndern. Wie im Abschnitt &#8222;Pilotstudie&#8220; beschrieben konnte best&#228;tigt werden, dass die Situationserkennung f&#252;r die einzelnen Standardsituationen gegeben war und diese somit f&#252;r die &#220;berpr&#252;fung des Data Loggings verwendet werden konnten.</Pgraph><Pgraph>F&#252;r die Ermittlung, ob die Genauigkeit des Data Loggings mit zunehmender Messdauer steigt, wurde eine 3- und 8-Stunden-Messung mithilfe der Standardsituationen herangezogen (Abbildung 2 <ImgLink imgNo="2" imgType="figure"/> und Abbildung 3 <ImgLink imgNo="3" imgType="figure"/>). Aufgrund der Tatsache, dass jede der drei Situationen gleich lang innerhalb der 3- bzw. 8-Stunden-Messung dargeboten wurde, liegt prozentuale Anteil (Soll) jeder Situation bei 33&#37; liegen musste. Die Ergebnisse der beiden Messungen zeigen jedoch, dass die Hersteller je nach Situation st&#228;rker und schw&#228;cher vom Soll abwichen. So waren die Abweichungen f&#252;r die Dokumentation von &#8222;Sprache im St&#246;rger&#228;usch&#8220; bei Hersteller A mit ca. 2&#37; sehr gering und im Rahmen der Messtoleranz, w&#228;hrend Hersteller B die Situation &#8222;Sprache in Ruhe&#8220; und Hersteller C die &#8222;Musik&#8220; am genausten erfasste. Insgesamt l&#228;sst sich sagen, dass eine l&#228;ngere Messdauer, nicht zwangsweise eine genauere Aufzeichnung nach sich zieht. Erkennbar ist dies unteranderem bei Hersteller B, welcher bei der 3-Stunden-Messung zwei von drei Situationen genauer erfasste, als w&#228;hrend der 8-Stunden-Messung (Abbildung 3 <ImgLink imgNo="3" imgType="figure"/> und <TextGroup><PlainText>Abbildung 4</PlainText></TextGroup> <ImgLink imgNo="4" imgType="figure"/>). Best&#228;tigen lie&#223; sich dies auch f&#252;r Hersteller C, der ebenfalls in zwei von drei Situationen bei einer k&#252;rzere Messdauer genauer aufzeichnete. Die Aussage laut Dillon, dass Daten &#252;ber einen gewissen Zeitraum aufgezeichnet werden m&#252;ssen, wenn man eine relevante Aussage treffen wolle <TextLink reference="1"></TextLink>, kann demnach nicht best&#228;tigt werden, wenn man davon ausgeht, dass er unter einem &#8222;gewissen Zeitraum&#8220; mehrere Stunden versteht, so wie es in dieser Studie der Fall war. Geht man davon aus, dass sich Dillon auf wenige Minuten bezieht, so hat er ggf. Recht, was wiederum die Aufzeichnungen von Hersteller A, durch die zunehmende Genauigkeit mit l&#228;ngerer Messdauer best&#228;tigten.</Pgraph><Pgraph>Neben den Standardsituationen &#8222;Sprache in Ruhe&#8220;, &#8222;Sprache im St&#246;rger&#228;usch&#8220; und &#8222;Musik&#8220; wurde ein Bar-Szenario generiert, um die Aufzeichnungsgenauigkeit f&#252;r diese gemischte Variante, die im allt&#228;glichen Leben h&#228;ufig vorkommt, zu &#252;berpr&#252;fen. Das Bar-Szenario lieferte, wie bereits erwartet, sehr unterschiedliche Daten. Erkl&#228;rt werden kann dies durch die Zusammensetzung der Situation, welche in dieser Art und Weise wahrscheinlich nicht im &#8222;Datenspeicher&#8220; der H&#246;rger&#228;te vorhanden ist. Zwar sind die Situationen im Einzelnen hinterlegt und werden, wie die Pilotstudie zeigte, im Einzelnen auch erkannt, jedoch scheinen diese in Kombination schwieriger detektierbar zu sein. An dieser Stelle ist jedoch auch zu bedenken, dass einer der Hersteller das Data Logging nutzt, um die vom H&#246;rger&#228;t verwendeten Programme der Automatik zu dokumentieren. Aus diesem Grunde wurde in Abbildung 4 <ImgLink imgNo="4" imgType="figure"/> darauf verzichtet Soll-Angaben zu formulieren. D.h. f&#252;r einen der Hersteller ist es dem H&#246;rakustiker sp&#228;ter m&#246;glich, nachzuvollziehen in welcher Einstellung sich das H&#246;rger&#228;t wie h&#228;ufig befand, kann aber keine R&#252;ckschl&#252;sse darauf schlie&#223;en, in welcher akustischen Umgebung sich sein Kunde aufhielt. Gleichzeitig bedeutet dies, dass eine Abweichung der vom Kunden beschriebenen erlebten akustischen Situationen zum Data Logging nicht automatisch bedeutet, dass die Situation nicht richtig erfasst wurde. Vielmehr l&#228;sst sich &#252;berpr&#252;fen, ob das H&#246;rger&#228;t die vorgesehene Einstellung w&#228;hlte. M&#246;chte der Hersteller z.B. bewusst, dass das Ger&#228;t in das Programm &#8222;Sprache im St&#246;rger&#228;usch&#8220; schaltet, auch wenn zus&#228;tzlich Musik vorhanden ist, so wird im Data Logging entsprechend nur &#8222;Sprache im St&#246;rger&#228;usch&#8220; dokumentiert, trotz dass die Erkennung der Musik grunds&#228;tzlich funktioniert. </Pgraph><Pgraph>Da jedoch die anderen beiden Hersteller die akustische Umgebung und nicht H&#246;rger&#228;teeinstellung aufzeichnen, k&#246;nnte man die Erwartung formulieren, dass die Ger&#228;te f&#252;r die komplexe Situation 50&#37; &#8222;Sprache im St&#246;rger&#228;usch&#8220; und 50&#37; &#8222;Musik&#8220; erkennen. Unter diesen Voraussetzungen w&#252;rde man sagen, dass Hersteller C die Situationen mit 30&#37; &#8222;Sprache im St&#246;rger&#228;usch&#8220; und 70&#37; &#8222;Musik&#8220; am zuverl&#228;ssigsten, trotz einer immer noch gro&#223;en Differenz zum Soll-Zustand, erkannte. Gleichzeitig wies eine solche Situation insbesondere f&#252;r die Hersteller B und C, welche nicht mit Hilfe einer Programmautomatik arbeiten, die Grenzen der Situationserkennung auf. Beide Hersteller erkannte zwar einzelne Anteile der zusammengesetzten Situation, jedoch lange nicht in dem Verh&#228;ltnis, aus dem sie tats&#228;chlich bestand. Somit k&#246;nnen die Aussagen von Banerjee und Wagener et al., dass komplexe Situationen ignoriert werden <TextLink reference="16"></TextLink>, und weitere Situationsalgorithmen w&#252;nschenswert sind <TextLink reference="18"></TextLink> best&#228;tigt werden.</Pgraph><Pgraph>Ein weiteres Ziel war es zu ermitteln, ob die binaurale Synchronisation einen Einfluss auf die Genauigkeit des Data Loggings hat. Wie man den Ergebnissen in <TextGroup><PlainText>Abbildung 5 </PlainText></TextGroup><ImgLink imgNo="5" imgType="figure"/> entnehmen kann, hat die binaurale Synchronisation einen Einfluss auf die Situationserkennung. So wurde sehr deutlich, dass das H&#246;rger&#228;t von Hersteller A bei deaktivierter Synchronisation, die dargebotene Musik nicht erkannte, sobald jedoch Synchronisation stattfand, Musik aufgezeichnet wurde. An dieser Stelle ist anzumerken, dass gerade dieser Faktor bei monauralen Versorgungen nicht vernachl&#228;ssigt werden und man die Wahl der Technologiestufe eines H&#246;rger&#228;tes entsprechend anpassen sollte. Zudem nahm die &#220;bereistimmung der Aufzeichnung f&#252;r das linke und rechte Ger&#228;t mit Aktivierung der binauralen Synchronisation zu, obwohl es keine Unterschiede bei der Darbietung &#252;ber die Lautsprecher gab. </Pgraph></TextBlock>
    <TextBlock linked="yes" name="Fazit">
      <MainHeadline>Fazit</MainHeadline><Pgraph>Wie die vorliegende Studie zeigt, kann die Zuverl&#228;ssigkeit der Aufzeichnung des Data Logging im Hinblick auf die akustische Umgebung der H&#246;rger&#228;tetr&#228;ger durch die binaurale Synchronisation und die Komplexit&#228;t einer Situation beeinflusst werden. Besonders f&#252;r Musik-Szenarien leistet die binaurale Synchronisation einen erheblichen Beitrag, verhindert jedoch nicht die undefiniertere Aufzeichnung von komplexeren Situationen. Dies f&#252;hrt zu dem Schluss, dass von der Anpasssoftware empfohlene Verbesserungsvorschl&#228;ge, nicht wahllos &#252;bernommen werden sollten. Hier ist es vielmehr von Vorteil auf die Aussage des Kunden, bezogen auf die Konstellation der H&#246;rumgebung, zur&#252;ck zu greifen.</Pgraph><Pgraph>Im weiteren Verlauf ist es interessant zu pr&#252;fen, was im Falle einer Fehlaufzeichnung tats&#228;chlich erkannt wurde und welche Situationen f&#252;r das H&#246;rger&#228;t schwierig zu trennen sind. Des Weiteren w&#228;re auch der Einfluss der Technologiestufe auf die Situationserkennung und Programmautomatik interessant. Somit kann &#252;berpr&#252;ft werden, ob das Data Logging eines Ger&#228;tes ohne binauraler Synchronisation mit mehr Fehlern, behaftet ist, als eines mit Synchronisation. W&#228;hrenddessen gleichzeitig herauszufinden gilt ob lediglich Zusatzsituationen wie Musik, Wind, etc. ungenauer aufgezeichnet werden, da sie in niedrigeren Technologiestufen kein Teil der Programmautomatik bzw. des Situationsmanagements sind oder der hinterlegte Datensatz in niedrigeren Technologiestufen eingeschr&#228;nkter ist. </Pgraph><Pgraph>Zusammenfassend l&#228;sst sich sagen, dass jeder Hersteller individuelle Schw&#228;chen und St&#228;rken in der Dokumentation von Lebenssituationen aufweist. Alles in allem wurden die dargebotenen Situationen dieser Studie am genausten von Hersteller B, gefolgt von Hersteller C und A erfasst. Es ist jedoch ausdr&#252;cklich zu betonen, dass die Streuung zwischen den Herstellern insgesamt gering war. Ein angemessener Vergleich aller Hersteller ist demnach nur schwierig umzusetzen, jedoch sollte man unabh&#228;ngig des Herstellers immer kritisch betrachten, ob die Programmautomatik zuverl&#228;ssig arbeitet und die Aufzeichnungen im Data Logging nicht &#252;berinterpretieren.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Anmerkungen">
      <MainHeadline>Anmerkungen</MainHeadline><SubHeadline>Interessenkonflikte</SubHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte in Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Dillon H</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2012</RefYear>
        <RefBookTitle>Hearing Aids</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Dillon H. Hearing Aids. Australien: Boomerang Press; 2012.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Ulrich J</RefAuthor>
        <RefAuthor>Hoffmann E</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2011</RefYear>
        <RefBookTitle>H&#246;rakustik Theorie und Praxis. Band 2</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Ulrich J, Hoffmann E, Hrsg. H&#246;rakustik Theorie und Praxis. Band 2. Heidelberg: DOZ Verlag; 2011.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Maki-Trokko E</RefAuthor>
        <RefAuthor>Sorr M</RefAuthor>
        <RefAuthor>Laukli E</RefAuthor>
        <RefTitle>Objektive assesement of hearing aid use</RefTitle>
        <RefYear>2012</RefYear>
        <RefBookTitle>Hearing Aids</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Maki-Trokko E, Sorr M, Laukli E. Objektive assesement of hearing aid use. In: Dillon H, Hrsg. Hearing Aids. Australien: Boomerang Press; 2012.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Mueller HG</RefAuthor>
        <RefTitle>Data logging: It&#39;s popular, but how can this feature be used to help patients&#63;</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Hear J</RefJournal>
        <RefPage>10.1097&#47;01.HJ.0000295442.16133</RefPage>
        <RefTotal>Mueller HG. Data logging: It&#39;s popular, but how can this feature be used to help patients&#63; Hear J. 2007;60(10):19-26. Verf&#252;gbar unter: DOI: 10.1097&#47;01.HJ.0000295442.16133.d7</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;01.HJ.0000295442.16133.d7</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Kie&#223;ling J</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefAuthor>Diller G</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2008</RefYear>
        <RefBookTitle>Versorgung und Rehabilitation mit H&#246;rger&#228;ten</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kie&#223;ling J, Kollmeier B, Diller G, Hrsg. Versorgung und Rehabilitation mit H&#246;rger&#228;ten. Stuttgart: Thieme Verlag; 2008. DOI: 10.1055&#47;b-001-1076</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1055&#47;b-001-1076</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Hamacher V</RefAuthor>
        <RefAuthor>Rass U</RefAuthor>
        <RefTitle>Hightech im Ohr: Physikalische und technische Grundlagen moderner H&#246;rger&#228;te</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Phys unserer Zeit</RefJournal>
        <RefPage>90-6</RefPage>
        <RefTotal>Hamacher V, Rass U. Hightech im Ohr: Physikalische und technische Grundlagen moderner H&#246;rger&#228;te. Phyik in unserer Zeit. 2006;37(2):90-6. DOI: 10.1002&#47;piuz.200501089</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1002&#47;piuz.200501089</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>B&#252;chler M</RefAuthor>
        <RefAuthor>Allegro S</RefAuthor>
        <RefAuthor>Launer S</RefAuthor>
        <RefAuthor>Dillier N</RefAuthor>
        <RefTitle>Sound Classification in Hearing Aids Inspired by Auditory Scene Analysis</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>EURASIP Journal on Advances in Signal Processing</RefJournal>
        <RefPage>2991-3002</RefPage>
        <RefTotal>B&#252;chler M, Allegro S, Launer S, Dillier N. Sound Classification in Hearing Aids Inspired by Auditory Scene Analysis. EURASIP Journal on Advances in Signal Processing. 2005;(18):2991-3002. DOI: 10.1155&#47;ASP.2005.2991</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1155&#47;ASP.2005.2991</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Sivantos GmbH</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>Signia Nx-3D-Klassifikator</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Sivantos GmbH. Signia Nx-3D-Klassifikator. 2018 &#91;Zugriff am 13.04.2019&#93;. Verf&#252;gbar unter: https:&#47;&#47;cms.sivantos.com&#47;wp-content&#47;uploads&#47;sites&#47;81&#47;2018&#47;05&#47;3D-Classifier-Deutsch.pdf</RefTotal>
        <RefLink>https:&#47;&#47;cms.sivantos.com&#47;wp-content&#47;uploads&#47;sites&#47;81&#47;2018&#47;05&#47;3D-Classifier-Deutsch.pdf</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>&#220;belacker E</RefAuthor>
        <RefAuthor>Tchorz J</RefAuthor>
        <RefTitle>AutoSense OS: Benefit of the next generation of technology automation</RefTitle>
        <RefYear>2015</RefYear>
        <RefBookTitle>Phonak Field Study News</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>&#220;belacker E, Tchorz J. AutoSense OS: Benefit of the next generation of technology automation. Phonak Field Study News. June 2015. Available from: https:&#47;&#47;www.phonakpro.com&#47;content&#47;dam&#47;phonakpro&#47;gc&#95;hq&#47;en&#47;resources&#47;evidence&#47;field&#95;studies&#47;documents&#47;fsn&#95;autosense&#95;os&#95;speech&#95;understanding.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.phonakpro.com&#47;content&#47;dam&#47;phonakpro&#47;gc&#95;hq&#47;en&#47;resources&#47;evidence&#47;field&#95;studies&#47;documents&#47;fsn&#95;autosense&#95;os&#95;speech&#95;understanding.pdf</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Starkey Laboratories GmbH</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>Technik</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Starkey Laboratories GmbH. Technik. 2018 Mai &#91;Zugriff am: 13.04.2019&#93;. Verf&#252;gbar unter: https:&#47;&#47;www.starkeypro.de&#47;files&#47;technikbroschuere.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.starkeypro.de&#47;files&#47;technikbroschuere.pdf</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Phonak GmbH</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2017</RefYear>
        <RefBookTitle>Die Unterschiede der Technologiestufen im &#220;berblick</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Phonak GmbH. Die Unterschiede der Technologiestufen im &#220;berblick. 2017 &#91;Zugriff am: 13.04.2019&#93;. Verf&#252;gbar unter: https:&#47;&#47;www.phonakpro.com&#47;content&#47;dam&#47;phonakpro&#47;gc&#95;de&#47;de&#47;Marketing&#95;Individual&#95;DE&#47;Marketing&#95;Home&#47;Broschueren&#47;Beratung&#47;Uebersicht&#95;Technologiestufen&#95;028-0774-01.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.phonakpro.com&#47;content&#47;dam&#47;phonakpro&#47;gc&#95;de&#47;de&#47;Marketing&#95;Individual&#95;DE&#47;Marketing&#95;Home&#47;Broschueren&#47;Beratung&#47;Uebersicht&#95;Technologiestufen&#95;028-0774-01.pdf</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Puder H</RefAuthor>
        <RefAuthor>Fischer T</RefAuthor>
        <RefTitle>Besser verstehen: Audionetzwerke mit H&#246;rger&#228;ten</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Phys unserer Zeit</RefJournal>
        <RefPage>134-9</RefPage>
        <RefTotal>Puder H, Fischer T. Besser verstehen: Audionetzwerke mit H&#246;rger&#228;ten. Phyik in unserer Zeit. 2016;47(3):134-9. DOI: 10.1002&#47;piuz.201601426</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1002&#47;piuz.201601426</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Moore B</RefAuthor>
        <RefTitle>Binaural sharing of audio signals: Prospective benefits and limitations</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Hear J</RefJournal>
        <RefPage>46-8</RefPage>
        <RefTotal>Moore B. Binaural sharing of audio signals: Prospective benefits and limitations. Hear J. 2007;60(11):46-8. DOI: 10.1097&#47;01.HJ.0000299172.13153.6f</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;01.HJ.0000299172.13153.6f</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Appleton-Huber J</RefAuthor>
        <RefTitle>StereoZoom: Adaptive behavior improves speech intelligibility, sound quality and suppression of noise. Phonak Field Study News</RefTitle>
        <RefYear>2015</RefYear>
        <RefTotal>Appleton-Huber J. StereoZoom: Adaptive behavior improves speech intelligibility, sound quality and suppression of noise. Phonak Field Study News. September 2015. Available from: https:&#47;&#47;www.phonakpro.com&#47;content&#47;dam&#47;phonakpro&#47;gc&#95;hq&#47;en&#47;resources&#47;evidence&#47;field&#95;studies&#47;documents&#47;fsn&#95;phonak&#95;stereozoom&#95;adaptive&#95;behaviour.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.phonakpro.com&#47;content&#47;dam&#47;phonakpro&#47;gc&#95;hq&#47;en&#47;resources&#47;evidence&#47;field&#95;studies&#47;documents&#47;fsn&#95;phonak&#95;stereozoom&#95;adaptive&#95;behaviour.pdf</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Sivantos GmbH</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2017</RefYear>
        <RefBookTitle>Produkt&#252;bersicht: Fr&#252;hling&#47;Sommer 2017</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Sivantos GmbH. Produkt&#252;bersicht: Fr&#252;hling&#47;Sommer 2017. 2017 &#91;Zugriff am: 13.04.2019&#93;. Verf&#252;gbar unter: https:&#47;&#47;www.signia-pro.de&#47;wp-content&#47;uploads&#47;sites&#47;81&#47;2017&#47;04&#47;Produktuebersicht-FS-2017.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.signia-pro.de&#47;wp-content&#47;uploads&#47;sites&#47;81&#47;2017&#47;04&#47;Produktuebersicht-FS-2017.pdf</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Banerjee S</RefAuthor>
        <RefTitle>Hearing aids in the real world: typical automatic behavior of expansion, directionality, and noise management</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>34-48</RefPage>
        <RefTotal>Banerjee S. Hearing aids in the real world: typical automatic behavior of expansion, directionality, and noise management. J Am Acad Audiol. 2011 Jan;22(1):34-48. DOI: 10.3766&#47;jaaa.22.1.5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.22.1.5</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Nordqvist P</RefAuthor>
        <RefAuthor>Leijon A</RefAuthor>
        <RefTitle>An efficient robust sound classification algorithm for hearing aids</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>3033-41</RefPage>
        <RefTotal>Nordqvist P, Leijon A. An efficient robust sound classification algorithm for hearing aids. J Acoust Soc Am. 2004 Jun;115(6):3033-41. DOI: 10.1121&#47;1.1710877</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.1710877</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Wagener KC</RefAuthor>
        <RefAuthor>Hansen M</RefAuthor>
        <RefAuthor>Ludvigsen C</RefAuthor>
        <RefTitle>Recording and classification of the acoustic environment of hearing aid users</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>348-70</RefPage>
        <RefTotal>Wagener KC, Hansen M, Ludvigsen C. Recording and classification of the acoustic environment of hearing aid users. J Am Acad Audiol. 2008 Apr;19(4):348-70. DOI: 10.3766&#47;jaaa.19.4.7.</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.19.4.7.</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Lamarche L</RefAuthor>
        <RefAuthor>Gigu&#232;re C</RefAuthor>
        <RefAuthor>Gueaieb W</RefAuthor>
        <RefAuthor>Aboulnasr T</RefAuthor>
        <RefAuthor>Othman H</RefAuthor>
        <RefTitle>Adaptive environment classification system for hearing aids</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>3124-35</RefPage>
        <RefTotal>Lamarche L, Gigu&#232;re C, Gueaieb W, Aboulnasr T, Othman H. Adaptive environment classification system for hearing aids. J Acoust Soc Am. 2010 May;127(5):3124-35. DOI: 10.1121&#47;1.3365301</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.3365301</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Akustik Becker &#38; Partner</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2011</RefYear>
        <RefBookTitle>HTW Aalen Schallmessraum: Akustische Messungen im Freifeldraum</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Akustik Becker &#38; Partner. HTW Aalen Schallmessraum: Akustische Messungen im Freifeldraum. Fellbach; 2011.</RefTotal>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Deutsches Institut f&#252;r Normung</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1995</RefYear>
        <RefBookTitle>DIN 45621-1 Sprache f&#252;r Geh&#246;rpr&#252;fung-Teil 1: Ein-und mehrsilbige W&#246;rter</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Deutsches Institut f&#252;r Normung. DIN 45621-1 Sprache f&#252;r Geh&#246;rpr&#252;fung-Teil 1: Ein-und mehrsilbige W&#246;rter. Berlin: Beuth-Verlag; 1995.</RefTotal>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Hohmann B</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2000</RefYear>
        <RefBookTitle>Musik und H&#246;rsch&#228;den</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Hohmann B. Musik und H&#246;rsch&#228;den. 17. Auflage. Luzern: Suva. 2000 &#91;Zugriff am: 13.04.2019&#93;. Verf&#252;gbar unter: http:&#47;&#47;www.laermorama.ch&#47;m4&#95;ohrenschuetzen&#47;pdf&#47;Musik&#95;und&#95;Hoerschaeden.pdf</RefTotal>
        <RefLink>http:&#47;&#47;www.laermorama.ch&#47;m4&#95;ohrenschuetzen&#47;pdf&#47;Musik&#95;und&#95;Hoerschaeden.pdf</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Husstedt H</RefAuthor>
        <RefAuthor>Wollermann S</RefAuthor>
        <RefAuthor>Tchorz J</RefAuthor>
        <RefTitle>A method to analyse and test the automatic selection of hearing aid programs</RefTitle>
        <RefYear>2017</RefYear>
        <RefBookTitle>Proceedings  of  the  International  Symposium  on  Auditory  and  Audiological  Research  (Proc. ISAAR).  Vol.  6:  Adaptive  Processes  in  Hearing,  August  2017,  Nyborg,  Denmark</RefBookTitle>
        <RefPage>143-50</RefPage>
        <RefTotal>Husstedt H, Wollermann S, Tchorz J. A method to analyse and test the automatic selection of hearing aid programs. In: Santurette S,  Dau T, Dalsgaard JC,  Tranebj&#230;rg L,  Andersen T,  Poulsen T, Hrsg. Proceedings  of  the  International  Symposium  on  Auditory  and  Audiological  Research  (Proc. ISAAR).  Vol.  6:  Adaptive  Processes  in  Hearing,  August  2017,  Nyborg,  Denmark. Danavox  Jubilee  Foundation; 2017. S. 143-50. Verf&#252;gbar unter: https:&#47;&#47;proceedings.isaar.eu&#47;index.php&#47;isaarproc&#47;article&#47;view&#47;2017-17&#47;296</RefTotal>
        <RefLink>https:&#47;&#47;proceedings.isaar.eu&#47;index.php&#47;isaarproc&#47;article&#47;view&#47;2017-17&#47;296</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Tabelle 1: &#220;bersicht der verwendeten Soundfiles</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption><Pgraph><Mark1>Tabelle 2: Aufbau der Testsituationen</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="504" width="1188">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 1: Schematische Darstellung des Vorgehens zur &#220;berpr&#252;fung der Programmautomatik. </Mark1><LineBreak></LineBreak>Diese Abbildung zeigt lediglich das Prinzip des Verfahrens und nicht die tats&#228;chlich erwarteten Werte f&#252;r die drei Einstellungen der Situationen Sprache in Ruhe (SiQ), Sprache im St&#246;rger&#228;usch (SiN) und Musik.</Pgraph></Caption>
        </Figure>
        <Figure format="png" height="527" width="745">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 2: Aufzeichnungen des rechten und linken H&#246;rger&#228;tes jedes Herstellers f&#252;r eine Messdauer von 3 Stunden bei aktivierter binauraler Synchronisation</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="530" width="742">
          <MediaNo>3</MediaNo>
          <MediaID>3</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 3: Aufzeichnungen des rechten und linken H&#246;rger&#228;tes jedes Herstellers f&#252;r eine Messdauer von 8 Stunden bei aktivierter binauraler Synchronisation</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="531" width="742">
          <MediaNo>4</MediaNo>
          <MediaID>4</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 4: Aufzeichnungen des rechten und linken H&#246;rger&#228;tes jedes Herstellers f&#252;r die konstruierte akustisch komplexe Situation &#8222;Bar-Szenario&#8220; (2-Stunden-Messung)</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="356" width="869">
          <MediaNo>5</MediaNo>
          <MediaID>5</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 5: Aufzeichnung des DLs bei aktivierter und deaktivierter binauraler Synchronisation</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>5</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>