<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zaud000038</Identifier>
    <IdentifierDoi>10.3205/zaud000038</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zaud0000387</IdentifierUrn>
    <ArticleType language="de">Originalarbeit</ArticleType>
    <ArticleType language="en">Research Article</ArticleType>
    <TitleGroup>
      <Title language="de">Hearing in Daily Life (HearDL): Die Entwicklung einer Applikation zur Erfassung alltagsnaher Patientendaten im Bereich der CI- und H&#246;rger&#228;teversorgung</Title>
      <TitleTranslated language="en">Hearing in Daily Life (HearDL): The development of an application for the acquisition of everyday patient reported outcome data in the realm of CI and hearing aid supply</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Meis</Lastname>
          <LastnameHeading>Meis</LastnameHeading>
          <Firstname>Markus</Firstname>
          <Initials>M</Initials>
          <AcademicTitle>Dr.</AcademicTitle>
        </PersonNames>
        <Address language="de">Cochlear Deutschland GmbH &#38; Co. KG, Mail&#228;nder Str. 4a, 30539 Hannover, Deutschland<Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Deutschland</Affiliation></Address>
        <Address language="en">Cochlear Deutschland GmbH &#38; Co. KG, Mail&#228;nder Str. 4a, 30539 Hannover, Germany<Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Germany</Affiliation></Address>
        <Email>mmeis&#64;cochlear.com</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Krueger</Lastname>
          <LastnameHeading>Krueger</LastnameHeading>
          <Firstname>Melanie</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>H&#246;rzentrum Oldenburg gGmbH, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>H&#246;rzentrum Oldenburg gGmbH, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Radeloff</Lastname>
          <LastnameHeading>Radeloff</LastnameHeading>
          <Firstname>Andreas</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohrenheilkunde, Carl von Ossietzky Universit&#228;t, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohrenheilkunde, Carl von Ossietzky Universit&#228;t, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Grundmann</Lastname>
          <LastnameHeading>Grundmann</LastnameHeading>
          <Firstname>Mareike</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohrenheilkunde, Carl von Ossietzky Universit&#228;t, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohrenheilkunde, Carl von Ossietzky Universit&#228;t, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Buscherm&#246;hle</Lastname>
          <LastnameHeading>Buscherm&#246;hle</LastnameHeading>
          <Firstname>Michael</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>KIZMO GmbH, Klinisches Innovationszentrum f&#252;r Medizintechnik Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>KIZMO GmbH, Klinisches Innovationszentrum f&#252;r Medizintechnik Oldenburg, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Holube</Lastname>
          <LastnameHeading>Holube</LastnameHeading>
          <Firstname>Inga</Firstname>
          <Initials>I</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Institute of Hearing Technology and Audiology, Jade Hochschule of Applied Sciences, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Institute of Hearing Technology and Audiology, Jade Hochschule of Applied Sciences, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>von Gablenz</Lastname>
          <LastnameHeading>von Gablenz</LastnameHeading>
          <Firstname>Petra</Firstname>
          <Initials>P</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Institute of Hearing Technology and Audiology, Jade Hochschule of Applied Sciences, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Institute of Hearing Technology and Audiology, Jade Hochschule of Applied Sciences, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Wortmann</Lastname>
          <LastnameHeading>Wortmann</LastnameHeading>
          <Firstname>Rabea</Firstname>
          <Initials>R</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>GN Hearing GmbH, M&#252;nster, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>GN Hearing GmbH, M&#252;nster, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hessel</Lastname>
          <LastnameHeading>Hessel</LastnameHeading>
          <Firstname>Horst</Firstname>
          <Initials>H</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">app</Keyword>
      <Keyword language="en">ecological validity</Keyword>
      <Keyword language="en">ecological momentary assessment</Keyword>
      <Keyword language="en">patient reported outcome (measurement)</Keyword>
      <Keyword language="en">listening effort</Keyword>
      <Keyword language="en">rehabilitation</Keyword>
      <Keyword language="de">App</Keyword>
      <Keyword language="de">&#214;kologische Validit&#228;t</Keyword>
      <Keyword language="de">Ecological Momentary Assessment</Keyword>
      <Keyword language="de">Patient Reported Outcome (Measurement)</Keyword>
      <Keyword language="de">H&#246;ranstrengung</Keyword>
      <Keyword language="de">Rehabilitation</Keyword>
    </SubjectGroup>
    <DatePublishedList>
      
    <DatePublished>20240227</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2628-9083</ISSN>
        <Volume>6</Volume>
        <JournalTitle>GMS Zeitschrift f&#252;r Audiologie - Audiological Acoustics</JournalTitle>
        <JournalTitleAbbr>GMS Z Audiol (Audiol Acoust)</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>03</ArticleNo>
    <Fundings>
      <Funding fundId="13GW0266A">Bundesministerium f&#252;r Bildung und Forschung (BMBF)</Funding>
    </Fundings>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Die App Hearing in Daily Life (HearDL) wurde f&#252;r die alltagsnahe Bewertung von H&#246;rsituationen von bimodal versorgten Patienten (Cochlea-Implantat (CI) auf der einen und H&#246;rger&#228;t (HG) auf der anderen Seite) entwickelt. Zus&#228;tzlich k&#246;nnen die gewonnenen Daten genutzt werden, um nutzerzentrierte Hinweise f&#252;r die (bimodale) Anpassung der H&#246;rsy<TextGroup><PlainText>ste</PlainText></TextGroup>me zu gewinnen. Die Datenerhebung der App umfasst vier Bereiche: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Messungen der generellen Zufriedenheit (Lebensqualit&#228;t und funktionale Aspekte) mittels CI-Leitlinien-konformen Fra<TextGroup><PlainText>gebog</PlainText></TextGroup>enve<TextGroup><PlainText>rfah</PlainText></TextGroup>ren, </ListItem><ListItem level="1" levelPosition="2" numString="2.">die adaptive Messung der H&#246;ranstrengung als gepr&#252;fte, mobile Version von ACALES (Adaptive CAtegorical Listening Effort Scaling), </ListItem><ListItem level="1" levelPosition="3" numString="3.">ein neues Verfahren zur Bewertung von individuell bedeutsamen Alltagssituationen (Ecological Momentary Assessment, EMA) sowie </ListItem><ListItem level="1" levelPosition="4" numString="4.">zwei Bewertungs-Tools (Voting Tool, VT) f&#252;r den A&#47;B-Vergleich von Features&#47;Einstellungen der H&#246;rsysteme und zum Vergleich HG und CI. </ListItem></OrderedList></Pgraph><Pgraph>Zus&#228;tzlich zur App wurde ein Dashboard als separate PC-Software f&#252;r Audiologen und H&#246;rakustiker entwickelt, in welcher ein Studienplaner inkl. Termineingaben und -erinnerungen f&#252;r die Patienten integriert ist. Der bidirektionale Datentransfer zwischen App und Dashboard erfolgt kabelgebunden. Die HearDL-App und das Dashboard liegen als voll funktionsf&#228;hige, technisch ausgereifte und gepr&#252;fte Forschungsversionen in Englisch und Deutsch f&#252;r das Betriebssystem Android vor. Die App kann f&#252;r Forschungszwecke, f&#252;r die klinische Routine und zur Erfolgskontrolle von Rehabilitationsma&#223;nahmen als Tool zur papierlosen und flexiblen Datenerfassung inkl. eines Content-Management-Systems f&#252;r Frageb&#246;gen und Aufgaben eingesetzt werden.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>The Hearing in Daily Life (HearDL) app was developed for the everyday assessment of listening situations of bimodally fitted patients (cochlear implant (CI) on one side and hearing aid (HA) on the other). In addition, the data obtained can be used to provide user-centered guidance for (bimodal) hearing instrument fitting. The data collection of the app includes four areas:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">measurements of general satisfaction (quality of life and functional aspects) using CI guideline-compliant questionnaire procedures, </ListItem><ListItem level="1" levelPosition="2" numString="2.">adaptive measurement of listening effort as a tested, mobile version of ACALES (Adaptive CAtegorical Listening Effort Scaling), </ListItem><ListItem level="1" levelPosition="3" numString="3.">a new procedure for assessing individually significant everyday situations (Ecological Momentary Assessment, EMA), and </ListItem><ListItem level="1" levelPosition="4" numString="4.">two assessment tools (Voting Tool, VT) for A&#47;B comparison of features&#47;settings of the hearing instruments and for comparing HA and CI. </ListItem></OrderedList></Pgraph><Pgraph>In addition to the app, a dashboard was developed as a separate PC software for audiologists and hearing care professionals, in which a study planner including appointment entries and reminders for patients is integrated. The bidirectional data transfer between the app and the dashboard is wired. The HearDL app and dashboard are available as fully functional, technically mature and tested research versions in English and German for the operating system Android. The app can be used for research purposes, for clinical routine and for monitoring the success of rehabilitation measures as a tool for paperless and flexible data collection including a content management system for questionnaires and tasks.</Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="1. Einf&#252;hrung">
      <MainHeadline>1. Einf&#252;hrung</MainHeadline><Pgraph>Die Versorgungssituation von h&#246;rgesch&#228;digten Menschen mit H&#246;rsystemen, wie insbesondere bimodal versorgten Patienten mit H&#246;rger&#228;t (HG) auf der einen und Cochlea-Implantat (CI) auf der anderen Seite, verbessert sich stetig. Im Rahmen einer Studie konnte gezeigt werden, dass die meisten Probanden in der bimodalen Bedingung ein verbessertes Sprachverstehen in Ruhe und im St&#246;rger&#228;usch im Vergleich zum reinen H&#246;rger&#228;te- oder Coc<TextGroup><PlainText>hle</PlainText></TextGroup>a-Implantat-Modus zeigten. Der bimodale Nutzen in Ruhe konnte teilweise durch den Grad des Reintonverlustes erkl&#228;rt werden; Probanden mit einem besseren H&#246;rverm&#246;gen auf der akustischen Seite profitieren signifikant von dem zus&#228;tzlichen elektrischen Input <TextLink reference="1"></TextLink>.</Pgraph><Pgraph>Obwohl die H&#246;rsysteme i.d.R. unter idealen Laborbedingungen optimal eingestellt und getestet werden (&#8218;Effic<TextGroup><PlainText>ac</PlainText></TextGroup>y&#8216;), berichten die Patienten immer wieder von Alltagssituationen, in denen sie mit dem H&#246;ren unzufrieden sind (&#8218;Effectiveness&#8216;). Erschwerend kommt hinzu, dass das HG beim H&#246;rakustiker und das CI in der Klinik durch einen Audiologen, also r&#228;umlich und zeitlich getrennt, eingestellt werden. Auch sind oftmals die Signalverarbeitungen beider H&#246;rsysteme nicht aufeinander abgeglichen und jedes System auf die Erfassung der gesamten akustischen Umwelt optimiert. Bei der Einstellung beider H&#246;rsysteme sollte der Fokus darauf liegen, eine verbesserte binaurale Perzeption des H&#246;rens f&#252;r die Nutzer herzustellen. Das Ziel, eine umfassende Zu<TextGroup><PlainText>f</PlainText></TextGroup>riedenheit und Lebensqualit&#228;t der Patienten mit den H&#246;rsystemen zu erreichen <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, betrifft nicht nur die bimodale Versorgung, sondern auch die klassische Versorgung mit ein oder zwei HGs, CIs und&#47;oder akustischen Implantaten. Um den Nutzen f&#252;r alltagsrelevante H&#246;rsituationen zu optimieren und um Medizinprodukte und&#47;oder deren Anpassung im Alltagsgebrauch unter Bedingungen mit hoher &#246;kologischer Validit&#228;t <TextLink reference="4"></TextLink> zu optimieren <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>, ist neben der Erfassung objektivierbarer akustischer und audiologischer Daten im Labor und im Feld auch die Erfassung subjektiver Daten aus Sicht der Patienten im Sinne von &#8222;Patient Reported Outcome&#8220; (PRO) erforderlich. Auch aus Sicht der Hersteller ist es notwendig, die Anforderungen der Food and Drug Administration (FDA) in den Vereinigten Staaten und der Medical Device Regulation (MDR) in der Europ&#228;ischen Union im Rahmen von Post Market Clinical Follow-up Studien (PMCF) durch die Erfassung von &#8222;Real Life Data&#8220; und &#8222;Real Life Evidence&#8220; der Medizinprodukte zu erf&#252;llen.</Pgraph><Pgraph>Messverfahren zu PRO (PROM) werden nach wie vor &#252;berwiegend im klinischen, experimentellen Setting erhoben, dabei oftmals mittels handschriftlicher Verfahren (&#8222;Paper-Pencil&#8220;), was f&#252;r das Fachpersonal und Patienten aufwendig und fehleranf&#228;llig sein kann. Obschon einige telemedizinische Applikationen vorliegen, wie z.B. die Remote Check App inkl. einer sprachaudiometrischen Messung <TextLink reference="9"></TextLink>, oder auch im Bereich des Ecological Momentary Assessment (EMA, vgl. z.B. <TextLink reference="8"></TextLink>, <TextLink reference="10"></TextLink>), fehlt die Erfassung des Outcomes im Alltag mit folgenden Bereichen und Fokussierungen:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Elektronische Fragebogensammlung als PROM, die in ihrer Ausrichtung nationalen, internationalen und regulatorischen Aspekten sowie nationalen Leitlinien gen&#252;gt und rehabilitationsspezifische Aspekte nach ICF (International Classification of Functioning, Disa<TextGroup><PlainText>bi</PlainText></TextGroup>lity, and Health, <TextLink reference="11"></TextLink>) einschlie&#223;t</ListItem><ListItem level="1" levelPosition="2" numString="2.">Vereinfachte Messung der H&#246;ranstrengung al<TextGroup><PlainText>s t</PlainText></TextGroup>elemedizinische Anwendung au&#223;erhalb eines laborexper<TextGroup><PlainText>i</PlainText></TextGroup>mentellen Settings zum Nachweis der kognitiven Last jenseits des Sprachverstehens</ListItem><ListItem level="1" levelPosition="3" numString="3.">Verfahren zu EMA, welche eine einfache Klas<TextGroup><PlainText>sifizi</PlainText></TextGroup>erung der Situationen und deren Auswertung gestatten und zudem individuell bedeutsame Situationen erfassen; vgl. &#8222;Client Oriented Scale of Improvement&#8220; (COSI, <TextLink reference="12"></TextLink>)</ListItem><ListItem level="1" levelPosition="4" numString="4.">Erfassung von Klangdeskriptoren, wenn patientenseit<TextGroup><PlainText>i</PlainText></TextGroup>g HG und CI in definierten H&#246;rsituationen unterschiedlich bewertet werden, um weitere Hinweise f&#252;r das bimodale Fitting zu erhalten.</ListItem></OrderedList></Pgraph><Pgraph>Ziel der HearDL-App ist es, erstens die individuelle Anpassung der bimodalen Versorgung zu optimieren und zweitens f&#252;r klinische Studien und Anwendungsbeobachtungen Alltagsdaten der Patienten zur Zufriedenheit mit H&#246;rsystemen elektronisch, d.h. papierlos auch au&#223;erhalb eines klinischen Settings zu erheben. Die App soll eine Vielzahl von alltagsrelevanten PROMs kombiniert abdec<TextGroup><PlainText>k</PlainText></TextGroup>en. F&#252;r Patienten, Audiologen und H&#246;rakustiker in der allt&#228;glichen Routine sollte die Applikation einfach zu bedienen und die Datenauswertung unkompliziert sein.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="1. Introduction">
      <MainHeadline>1. Introduction</MainHeadline><Pgraph>The care situation of hearing-impaired people with hearing systems, in particular bimodal patients with hearing aids (HA) on the one ear and cochlear implants (CI) on the other, is constantly improving. A study showed that most subjects in the bimodal condition showed improved speech understanding in quiet and in noise compared to the hearing aid or cochlear implant only mode. The bimodal benefit in quiet could be partly explained by the degree of pure-tone loss; subjects with better hearing on the acoustic side benefited significantly from the additional electrical input <TextLink reference="1"></TextLink>.</Pgraph><Pgraph>Although the hearing systems are generally optimally adjusted and tested under ideal laboratory conditions (&#8216;efficacy&#8217;), patients repeatedly report everyday situations in which they are dissatisfied with their hearing (&#8216;effectiveness&#8217;). Another complicating factor is that the hearing aid is usually adjusted by a hearing aid acoustician in the shop and the CI is adjusted by an audiologist at the clinic, i.e., at separate times and locations. In addition, the signal processing of the two hearing systems is often not synchronised and each system is optimised to capture the entire acoustic environment. When adjusting both hearing systems, the focus should be on creating an improved binaural perception of hearing for the user. The goal of achieving comprehensive patient satisfaction and quality of life with the hearing systems <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink> applies not only to bimodal fitting, but also to conventional fitting with one or two hearing aids, CIs and&#47;or acoustic implants. In order to optimise the benefit for everyday hearing situations and to optimise medical devices and&#47;or their fitting in everyday use under conditions with high ecological validity <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>, it is necessary not only to collect objectifiable acoustic and audiological data in the laboratory and in the field, but also to collect subjective data from the patient&#8217;s perspective in the sense of &#8220;Patient Reported Outcome&#8221; (PRO). From the manufacturer&#8217;s perspective, it is also necessary to fulfil the requirements of the Food and Drug Administration (FDA) in the United States and the Medical Device Regulation (MDR) in the European Union in the context of post-market clinical follow-up studies (PMCF) by collecting &#8220;real-life data&#8221; and &#8220;real-life evidence&#8221; of the medical devices.</Pgraph><Pgraph>Measurement procedures for PRO (PROM) are still predominantly collected in clinical, experimental settings, often using paper-pencil versions, which can be time-consuming and error-prone for healthcare professionals and patients. Although some telemedical applications are available, such as the Remote Check app including a speech audiometric measurement <TextLink reference="9"></TextLink>, or in the field of Ecological Momentary Assessment (EMA, see e.g. <TextLink reference="8"></TextLink>, <TextLink reference="10"></TextLink>), the recording of outcomes in everyday life with the following areas and focal points is lacking:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Electronic questionnaire collection as PROM, which fulfils national, international, and regulatory aspects as well as national guidelines in its orientation and includes rehabilitation-specific aspects according to ICF (International Classification of Functioning, Disability, and Health, <TextLink reference="11"></TextLink>)</ListItem><ListItem level="1" levelPosition="2" numString="2.">Simplified measurement of listening effort as a telemedical application outside a laboratory setting to demonstrate cognitive load beyond speech intelligibility</ListItem><ListItem level="1" levelPosition="3" numString="3.">Procedures for EMA that allow a simple classification of situations and their evaluation as well as recording individually significant situations; see &#8220;Client Oriented Scale of Improvement&#8221; (COSI, <TextLink reference="12"></TextLink>)</ListItem><ListItem level="1" levelPosition="4" numString="4.">Recording of sound descriptors when the patient&#8217;s hearing aid and CI are evaluated differently in defined listening situations to obtain further information for bimodal fitting</ListItem></OrderedList></Pgraph><Pgraph>The aim of the HearDL app is, firstly, to optimise the individual fitting of bimodal fittings and, secondly, to collect everyday patient data on satisfaction with hearing systems electronically, i.e., paperless, even outside a clinical setting. The app is intended to cover a variety of PROMs relevant to everyday life. For patients, audiologists and hearing care professionals in their daily routine, the application should be easy to use and the data analysis uncomplicated.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="2. Konzeption der HearDL-App und Dashboard">
      <MainHeadline>2. Konzeption der HearDL-App und Dashboard</MainHeadline><Pgraph>In der HearDL-App werden vier unterschiedliche Bereiche der H&#246;rbewertung und Klangwahrnehmung adressiert:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Klassische Frageb&#246;gen mit retrospektiver Abfrage, </ListItem><ListItem level="1" levelPosition="2" numString="2.">Erfassung der subjektiven H&#246;ranstrengung mittels ACALES mobile (vgl. <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink> zur rechnergest&#252;tzten Variante von ACALES), </ListItem><ListItem level="1" levelPosition="3" numString="3.">EMA in der entsprechenden Situation und </ListItem><ListItem level="1" levelPosition="4" numString="4.">&#8222;Voting-Tools&#8220; (A&#47;B-Vergleich) sowie eine Klang- und H&#246;rbewertungsabfrage f&#252;r das bimodale Fitting, eingebettet in die EMA-Aufgabe.</ListItem></OrderedList></Pgraph><Pgraph>Es wurde ein Dashboard f&#252;r Windows entwickelt, womit zum einen die komplette Patientenverwaltung, eine chronologische Daten&#252;bersicht sowie der Datenexport organisiert wird und zum anderen mittels Studienplaner die einzelnen Aufgaben, H&#228;ufigkeit der Abfrage sowie die Zeitpunkte der Messungen f&#252;r die Patienten individuell und auf Gruppenebene terminiert werden k&#246;nnen.</Pgraph><SubHeadline>2.1 Bereiche der App</SubHeadline><Pgraph>F&#252;r die wesentlichen neuen Outcome-Messungen sind die Graphical User Interfaces (GUI) den Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> (A&#8211;D) zu entnehmen; es sind Beispiele der GUIs f&#252;r die adaptive H&#246;ranstrengungsmessung (ACALES mobile), Situationsdefinition der EMA und Fragebogenverfahren dargestellt. Bei den Voting-Tools wurden ein A&#47;B-Vergleich und eine Erg&#228;nzung der EMA durch Klangdeskriptoren implementiert.</Pgraph><Pgraph>Bei Abbildung 1A <ImgLink imgNo="1" imgType="figure"/> ist zu entnehmen, dass die Nutzer beim Starten der App anhand sich f&#252;llender farblicher Kreise erkennen, wie viele im Dashboard zuvor definierte Aufgaben schon erledigt sind. In der App wird diese Funktion der Kreise durch Animationen zus&#228;tzlich verdeutlicht. In den Bereichen ACALES mobile werden Fortsc<TextGroup><PlainText>h</PlainText></TextGroup>rit<TextGroup><PlainText>t</PlainText></TextGroup>sbalken und Prozentangaben r&#252;ckgemeldet, um den Nutzer zur Erledigung ausstehender Aufgaben zu motivieren; bei Frageb&#246;gen: wie viele Fragen noch zu beantworten sind.</Pgraph><Pgraph>Im Folgenden werden die Verfahren und deren Implementierung detaillierter vorgestellt.</Pgraph><SubHeadline2>2.1.1 Fragebogen-Inventare</SubHeadline2><Pgraph>Bei der Auswahl geeigneter Frageb&#246;gen wurde darauf geachtet, dass diese eine Erfassung der subjektiven Einsch&#228;tzung des H&#246;rens der zur&#252;ckliegenden zwei bis vier Wochen erm&#246;glicht. Schwerpunkte sind die subjektive H&#246;rf&#228;higkeit als funktionale Komponente, h&#246;rspezifische Lebensqualit&#228;t als auch Langzeitzufriedenheit sowie rehabilitationsspezifische Merkmale. F&#252;r die Auswahl der Frageb&#246;gen wurden Vorarbeiten von <TextLink reference="15"></TextLink> zur bimodalen Versorgung ber&#252;cksichtigt, wobei verschiedene Fr<TextGroup><PlainText>a</PlainText></TextGroup>geb<TextGroup><PlainText>&#246;</PlainText></TextGroup>gen als Verlaufskontrolle analysiert wurden. Basierend auf psychometrischen Kennwerten zur V<TextGroup><PlainText>er&#228;nderung</PlainText></TextGroup>ss<TextGroup><PlainText>ensitivit</PlainText></TextGroup>&#228;t Cohen&#8217;s <Mark2>d</Mark2> <TextLink reference="16"></TextLink> als Effektst&#228;rkema&#223;, wurden die Frageb&#246;gen &#8222;SSQ12&#8220; <TextLink reference="17"></TextLink> und das Hearing Handicap Inventory &#8222;HHI&#8220; mit den Varianten &#8211;E (Elderly, vgl. <TextLink reference="18"></TextLink>) und &#8211;A (Adults, vgl. <TextLink reference="19"></TextLink>) als sensitiv identifiziert. Die neue Variante des HHI, das Revised Hearing Handicap Inventory <TextLink reference="20"></TextLink>, bezieht sich auf die beiden Varianten und ist mit einer Screening-Version (RHHI-S) und einer Langversion (RHHI) zus&#228;tzlich verf&#252;gbar.</Pgraph><Pgraph>Beim SSQ12 k&#246;nnen im Unterschied zur originalen Skalierung nur ganzzahlige Werte von 0 bis 1<TextGroup><PlainText>0 ein</PlainText></TextGroup>gegeben werden, was der kleinen Bedienoberfl&#228;che und Nutzerbedarfen geschuldet ist, vgl. auch vergleichbare Arbeiten im Bereich der H&#246;ranstrengung <TextLink reference="21"></TextLink>.</Pgraph><Pgraph>Es wurden noch weitere Fragebogeninventare im<TextGroup><PlainText>p</PlainText></TextGroup>lem<TextGroup><PlainText>enti</PlainText></TextGroup>ert. Der &#8222;Hearing Implant Sound Quality Index HIS<TextGroup><PlainText>QUI-</PlainText></TextGroup>19&#8220; <TextLink reference="22"></TextLink> umfasst funktionale Komponenten, wie auch Abfragen zur Klangqualit&#228;t. Der &#8222;Nijmegen Cochlear Implant Questionnaire&#8220; (NCIQ) <TextLink reference="23"></TextLink> ist mit allen sechs Sub-Skalen implementiert, ein Verfahren, welches im CI-Wei&#223;buch zur CI-Versorgung in Deutschland verpflichtend ist <TextLink reference="24"></TextLink>.</Pgraph><Pgraph>Ferner wurden insgesamt neun rehabilitationsspezifische Fragen, die in Anlehnung an IRES <TextLink reference="25"></TextLink> und dem ICF-Konzept in der Audiologie <TextLink reference="11"></TextLink> formuliert wurden, als E<TextGroup><PlainText>i</PlainText></TextGroup>genentwicklung implementiert.</Pgraph><SubHeadline2>2.1.2 H&#246;ranstrengung &#8211; ACALES mobile</SubHeadline2><Pgraph>Bei der H&#246;ranstrengungsmessung ACALES, vgl. <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, werden S&#228;tze des Oldenburger Satztests (OLSA, <TextLink reference="26"></TextLink>) im sprachsimulierenden, station&#228;ren St&#246;rger&#228;usch (Olnoise) dargeboten. Die Aufgabe der Probanden besteht darin, die subjektiv wahrgenommene H&#246;ranstrengung auf einer 13-stufigen Bewertungsskala (ESCU; Effort Scaling Ca<TextGroup><PlainText>t</PlainText></TextGroup>egorical Unit) von &#8222;m&#252;helos&#8220; (1 ESCU) bis &#8222;extrem anstrengend&#8220; (13 ESCU) und einer zus&#228;tzlichen Kategorie &#8222;nur St&#246;rger&#228;usch&#8220; zu bewerten. W&#228;hrend der Messung wird, basierend auf den Antworten der Probanden, der SNR adaptiv ver&#228;ndert. Das Ziel dieser Messung ist die Ermittlung der individuellen H&#246;ranstrengungsfunktion, bei der jedem SNR-Wert eine Bewertungskategorie zugeordnet wird <TextLink reference="13"></TextLink>.</Pgraph><Pgraph>Das Messverfahren wurde als eigenst&#228;ndige Programmbibliothek f&#252;r die Nutzung auf mobilen Endger&#228;ten implementiert. Die Standardmessung erfolgt &#8222;in ruhiger h&#228;uslicher Umgebung&#8220; mit Olnoise. F&#252;r die Anwendung auf mobilen Endger&#228;ten au&#223;erhalb des Labors wurde das Messverfahren zeitlich verk&#252;rzt. Die drei Phasen der station&#228;ren Variante mit 1. Grenzbestimmung, 2. Sch&#228;tzung des SN<TextGroup><PlainText>R f</PlainText></TextGroup>&#252;r die Kategorien und zuf&#228;llige Wiedergabe und Bewertung der SNRs und 3. Neuberechnung der Grenzen und SNRs sowie die zuf&#228;llige Wiedergabe (zweimal wiederholt) wurden auf die ersten beiden Phasen reduziert. Zudem werden nur zwei der urspr&#252;nglichen drei OLSA-S&#228;tze verwendet. Zur Verbesserung der Eingabe auf einem kleinen Smartphone-Bildschirm wurde die Bewertungsskala von 13&#47;14 Bewertungskategorien auf 7&#47;<TextGroup><PlainText>8 K</PlainText></TextGroup>ategorien reduziert (vgl. Abbildung 1B <ImgLink imgNo="1" imgType="figure"/>); es blieben aber alle sieben urspr&#252;nglichen verbalen Anker erhalten.</Pgraph><Pgraph>Die verk&#252;rzte mobile Variante vs. der langen Ursprungsvariante wurde bez&#252;glich der Skalenl&#228;nge 13&#47;14 vs. 7&#47;<TextGroup><PlainText>8 u</PlainText></TextGroup>nd der Darbietungsart PC vs. App mit N&#61;15 Normalh&#246;renden N&#61;20 CI-Tr&#228;gern getestet. Weder deskriptiv noch statistisch zeigten sich bedeutsame Unterschiede; ein Manuskript mit detaillierten Ergebnissen ist in Vorbereitung.</Pgraph><Pgraph>In den Messungen mit den CI-Patienten stellte sich heraus, dass die Signale zu leise waren und daher nicht &#252;ber den verbauten Lautsprecher des Smartphones pr&#228;sentiert werden sollten. Es bieten sich andere &#220;<TextGroup><PlainText>b</PlainText></TextGroup>ertra<TextGroup><PlainText>g</PlainText></TextGroup>ungswege an, wie z.B. Streaming via Bluetooth-Ve<TextGroup><PlainText>r</PlainText></TextGroup>bindung. Die Anwendung ist zwar telemedizinisch ausgerichtet und wird im privaten Setting durchgef&#252;hrt, erfasst aber, aufgrund Reliabilit&#228;tsaspekten und der Vergleichbarkeit, nicht die H&#246;ranstrengung von allt&#228;glichen Situationen. Eine subjektive Abfrage der H&#246;ranstrengung ist in den EMA-Abfragen explizit ber&#252;cksichtigt.</Pgraph><SubHeadline2>2.1.3 Ecological Momentary Assessment (EMA)</SubHeadline2><Pgraph>Der hier verwendete EMA-Ansatz beschr&#228;nkt die Auswahl zu bewertender H&#246;rsituationen auf individuell relevante Situationen. In der Prim&#228;rkonzeption geben die Patienten zu Beginn der Befragung die f&#252;nf individuell relevantesten H&#246;rsituationen (z.B. Gespr&#228;che im Restaurant, Verstehen von Sprache beim Autofahren, etc.) an, qualifizieren diese mit einem kurzen Text (vgl. Abbildung 1C <ImgLink imgNo="1" imgType="figure"/>) und bewerten sie nachfolgend, wenn sie sich in der entsprechenden Situation befinden (Beispiele vgl. Abbildung 2 <ImgLink imgNo="2" imgType="figure"/> (A&#8211;C)). Damit wird ein Vorher-Nachher-Vergleich erm&#246;glicht, der sich auf identische Situationen&#47;Klassen bezieht und di<TextGroup><PlainText>e D</PlainText></TextGroup>atenqualit&#228;t verbessern soll. Die Idee, individuell bedeutsame Situationen abzufragen, wird in dem Fragebogen &#8222;Client Oriented Scale of Improvement&#8220; (COSI; 12) in &#228;hnlicher Weise angewendet, um die Anpassung von H&#246;rsystemen und das Outcome auf relevante, individuell bedeutsame H&#246;rsituationen zu fokussieren.</Pgraph><Pgraph>F&#252;r die A-priori-Klassifizierung der relevanten H&#246;rsituationen wurde das Schema der &#8222;Common Sound Scenarios&#8220; von <TextLink reference="27"></TextLink> adaptiert, vgl. Tabelle 1 <ImgLink imgNo="1" imgType="table"/>. Dieses Vorgehen dient dazu, die nachfolgende Auswertung in der klinischen Routine zu vereinfachen.</Pgraph><Pgraph>Im ersten Schritt wird von den Audiologen abgefragt, welche Intention mit der jeweiligen H&#246;rsituation verkn&#252;pft ist: Unterhaltung, fokussiertes Zuh&#246;ren oder Umwelt &#252;berwachen. Ba<TextGroup><PlainText>s</PlainText></TextGroup>ier<TextGroup><PlainText>e</PlainText></TextGroup>nd auf der Antwort werden weitere Fragen zur Kla<TextGroup><PlainText>ssif</PlainText></TextGroup>iz<TextGroup><PlainText>ier</PlainText></TextGroup>ung generiert. Bei der Auswahl von &#8222;Unterhaltung&#8220; wird im n&#228;chsten Schritt nach der Anzahl der Gespr&#228;chspartner gefragt sowie nach der Anwesenheit von Hintergrundger&#228;uschen, insgesamt sechs Situationen. Bei der Wahl von &#8222;Fokussiertes Zuh&#246;ren&#8220; wird die Situation weiter spezifiziert, in dem nach der Darbietung des Zielsignals (live oder &#252;ber ein Ger&#228;t) und nach der Anwesenheit von st&#246;renden Hintergrundger&#228;uschen gefragt wird (Sprache, Musik), wiederum sechs Situationen. Bei der Auswahl der Kategorie &#8222;Umwelt &#252;berwachen&#8220; wird nach der Relevanz der Umgebungsger&#228;usche gefragt, um daraus zu schlie&#223;en, ob es sich um zu &#8222;&#252;berwachende&#8220; Nebenger&#228;usche bei Aktivit&#228;ten (z.B. Verkehrsger&#228;usche) oder um ehe<TextGroup><PlainText>r n</PlainText></TextGroup>ebens&#228;chliche, beil&#228;ufige Ger&#228;usche, wie z.B. Hintergrundmusik beim Lesen, handelt.</Pgraph><Pgraph>Sobald sich die Nutzer in einer klassifizierten Situation befinden, werden sie um die Beantwortung spezifischer, f&#252;r die jeweiligen Klassen relevanter Fragen gebeten. Damit ist eine systematische Adaptivit&#228;t bei der Auswahl der Items gew&#228;hrleistet.</Pgraph><Pgraph>Urspr&#252;nglich sah das Konzept vor, dass die Nutzer selbst die Klassifikation vornehmen. In Nutzerbefragunge<TextGroup><PlainText>n s</PlainText></TextGroup>tellte sich heraus, dass die Klassifizierungsprozedur die Patienten &#252;berforderte. Daher wird die Klassifikation gemeinsam im Dialog mit den Audiologen im Dashboard vorgen<TextGroup><PlainText>o</PlainText></TextGroup>mmen; eine Klassifizierung ist aber f&#252;r erfahrene Nutzer auch weiterhin in der App m&#246;glich.</Pgraph><Pgraph>Zudem k&#246;nnen in der App spontan relevante Situationen bewertet werden. Hier wird wiederum eine Situation definiert, wie in Abbildung 1C <ImgLink imgNo="1" imgType="figure"/> dargestellt, die anhand von Beispielsituationen vom Nutzer klassifiziert und direkt abgefragt wird, ohne das Experten-Klas<TextGroup><PlainText>sifikation</PlainText></TextGroup>sprozedere nutzen zu m&#252;ssen.</Pgraph><Pgraph>Je nach Situationsklasse (s. Spalte &#8222;Nr.&#8220; in Tabelle 1 <ImgLink imgNo="1" imgType="table"/>) werden durch die Items verschiedene h&#246;rbezogen<TextGroup><PlainText>e As</PlainText></TextGroup>pekte &#252;ber Slider abgefragt (s. Spalte &#8222;Items&#8220; in Tabelle 1 <ImgLink imgNo="1" imgType="table"/>):</Pgraph><Pgraph><Indentation>A. Stimmung mittels &#8222;Mood-Skala&#8220; (vgl. Abbildung 2A <ImgLink imgNo="2" imgType="figure"/>)<LineBreak></LineBreak>B. Lautst&#228;rke links&#47;rechts verbale Anker von &#8222;viel zu laut&#8220; &#252;ber &#8222;ideal&#8220; bis &#8222;viel zu leise&#8220;, getrennt f&#252;r links und rechts m&#246;glich<LineBreak></LineBreak>C. Verstehen der Sprache (vgl. Abbildung 2C <ImgLink imgNo="2" imgType="figure"/>) von &#8222;sehr klar&#8220; &#252;ber &#8222;mittel&#8220; bis &#8222;sehr unklar&#8220;, getrennte Einstellung f&#252;r links und rechts m&#246;glich<LineBreak></LineBreak>D. Klangqualit&#228;t links&#47;rechts von &#8222;sehr gut&#8220; &#252;ber &#8222;mittel&#8220; bis &#8222;sehr schlecht&#8220;, getrennt f&#252;r links und rechts m&#246;glich<LineBreak></LineBreak>E. Quellendifferenzierung von &#8222;sehr gut&#8220; &#252;ber &#8222;mittel&#8220; bis &#8222;sehr schlecht&#8220;<LineBreak></LineBreak>F. Gef&#252;hl der Partizipation in der Gespr&#228;chssituation &#8222;mittendrin&#8220; bis &#8222;nur dabei&#8220; (vgl. Abbildung 2B <ImgLink imgNo="2" imgType="figure"/>)<LineBreak></LineBreak>G. Gef&#252;hl der Involvierung in einer akustischen Szene &#8222;mittendrin&#8220; bis &#8222;nur dabei&#8220;<LineBreak></LineBreak>H. H&#246;ranstrengung von &#8222;m&#252;helos&#8220; &#252;ber &#8222;mittel&#8220; bis &#8222;extrem anstrengend&#8220;</Indentation></Pgraph><Pgraph>Die Items A, G und F dienen als Abfrage zur &#8218;akuten&#8216; Lebensqualit&#228;t&#47;Partizipation, die Items B und D ber&#252;cksichtigen Aspekte der Wahrnehmung und die Items C, E und H erfassen funktionale Aspekte des Alltagslebens. Bei den Bewertungen Lautst&#228;rke, Klang und Klarheit der Sprache wurden links&#47;rechts Slider eingesetzt, um A<TextGroup><PlainText>nhalt</PlainText></TextGroup>sp<TextGroup><PlainText>unkt</PlainText></TextGroup>e f&#252;r das Fitting der unterschiedlichen Devices der bimodalen Versorgung zu haben.</Pgraph><Pgraph>Die &#8222;Mood-Skala&#8220; unterscheidet f&#252;nf Antwortm&#246;glichkeiten, w&#228;hrend f&#252;r die anderen Items sieben Skalenpunkte zur Verf&#252;gung stehen.</Pgraph><Pgraph>Sind alle zu bewertenden H&#246;rsituationen im Dashboard nebst Terminierung eingetragen, erfolgt eine Erinnerung an die Situationen per Push-Nachricht in der HearDL-App &#252;ber das Smartphone (Abbildung 2D <ImgLink imgNo="2" imgType="figure"/>).</Pgraph><SubHeadline2>2.1.4 &#8222;Voting-Tools&#8220;</SubHeadline2><Pgraph>Es wurden zwei &#8222;Voting-Tools&#8220; (VT) entwickelt: VT1 zum Vergleich der beiden H&#246;rsysteme (bei bimodal HG vs. CI) in einer aktuellen H&#246;rsituation und VT2 zur direkten Bewertung unterschiedlicher Einstellungen oder (neuer) Produktmerkmale im Alltag (A&#47;B-Vergleich). W&#228;hrend VT1 immer in Verbindung mit einer H&#246;rsituation im Rahmen der EMA-Messung genutzt wird, ist VT2 vollst&#228;ndig alleinstehend und dient dazu, individuelle Einstellungen eines H&#246;rsystems (z.B. unterschiedliche H&#246;rprogramme) oder (neue) Produkteigenschaften eines H&#246;rsystems im Alltag (z.B. unterschiedliche Parameter von Signalvorverarbeitungen) zu vergleichen.</Pgraph><Pgraph>Das VT1 adressiert besonders den bimodalen Versorgungsfall: In einer aktuellen Alltagsh&#246;rsituation der EMA-Applikation sollen die Patienten beurteilen, ob sie mit CI und HG gleich gut h&#246;ren und wenn nicht, genauer spezifizieren, mit welchem System sie schlechter h&#246;ren und warum (vordefinierte H&#246;rbewertungsklassen). Hierf&#252;r ist es zwingend erforderlich, dass das VT1 in einer klar bes<TextGroup><PlainText>c</PlainText></TextGroup>hriebenen H&#246;rsituation angewendet wird. Aus diesem Grund ist das VT1 eine Erweiterung der EMA-Befragung, die von CI-Audiologen und H&#246;rakustikern im Dashboard konfigurierbar (aktivierbar&#47;deaktivierbar) ist. Di<TextGroup><PlainText>e v</PlainText></TextGroup>ordefinierten Klang- und H&#246;rbewertungsklassifikationen (z.B. Sprache und&#47;oder Nebenger&#228;usche zu laut&#47;zu leise, eigene Stimme zu laut, zu dumpf&#47;zu scharf, Rauschen, verzerrt, Hall, Echo), erlauben dabei R&#252;ckschl&#252;sse auf die weitere individuelle Programmierung und &#8211; beim Vorliegen von gro&#223;en Datenmengen &#8211; auch R&#252;ckschl&#252;sse auf generelle Richtlinien f&#252;r die Anpassung, um die Kombination von CI und HG zu optimieren. Die Item-Sammlung basiert auf qualitativen Befragungen von CI-Patienten im Rahmen der Usability-Studien bei der Entwicklung der HearDL-App und einer Sammlung von Deskriptoren zur Fernanpassung von H&#246;rger&#228;ten <TextLink reference="28"></TextLink>.</Pgraph><SubHeadline>2.2 Dashboard</SubHeadline><Pgraph>Das Dashboard ist ein eigenes Windows PC-Programm und als Multiuser-System angelegt, in welchem die Patienten mit ihren H&#246;rsystemen durch die Audiologen mittels Patienten ID angelegt und verwaltet werden. Die entsprechenden Testverfahren k&#246;nnen ausgew&#228;hlt sowie bestimmten Terminen und Intervallen zugeordnet werden, so dass ein komplettes individuelles Programm oder ein Studiendesign f&#252;r Patientengruppen erstellt werden kann. Die Patientenprofile und -daten k&#246;nnen exportiert werden, um sie f&#252;r wissenschaftliche Analysen zu verwenden. F&#252;r die EMA-Applikation k&#246;nnen individuell bedeutsame H&#246;rsituationen patientenspezifisch angelegt werden. Die Patientendaten, das Versuchsdesign und die relevanten EMA-Situationen k&#246;nnen vom Dashboard aus in die Smartphone-App &#252;bertragen werden.</Pgraph><Pgraph>Erfasste Daten von den Patienten k&#246;nnen sp&#228;ter vom Smartphone in das Dashboard eingelesen werden. Einfache Auswertungen der gesammelten Daten sowie eine Visualisierung von wesentlichen Ergebnissen sind direkt im Dashboard m&#246;glich. Die Daten k&#246;nnen &#252;ber ein Tabellenformat exportiert werden, um in einer anderen Softw<TextGroup><PlainText>are</PlainText></TextGroup> (z.B. Microsoft Excel, Statistik-Software) detaillierter ausgewertet zu werden.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="2. Design of the HearDL app and dashboard">
      <MainHeadline>2. Design of the HearDL app and dashboard</MainHeadline><Pgraph>Four different areas of hearing evaluation and sound perception are addressed in the HearDL app: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Classic questionnaires with retrospective queries, </ListItem><ListItem level="1" levelPosition="2" numString="2.">Recording of subjective listening effort using ACALES mobile (see <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink> for the computerised version of ACALES), </ListItem><ListItem level="1" levelPosition="3" numString="3.">EMA in the corresponding situation, and </ListItem><ListItem level="1" levelPosition="4" numString="4.">&#8220;Voting tools&#8221; (A&#47;B comparison) as well as a sound and hearing evaluation query for bimodal fitting, embedded in the EMA task.</ListItem></OrderedList></Pgraph><Pgraph>A dashboard was developed for Windows, which on the one hand organises the complete patient administration, a chronological data overview and the data export, and on the other hand allows the individual tasks, frequency of the query and the times of the measurements to be scheduled for the patients individually and at group level using a study planner.</Pgraph><SubHeadline>2.1 Areas of the app</SubHeadline><Pgraph>The graphical user interfaces (GUI) for the main new outcome measures are shown in Figure 1 <ImgLink imgNo="1" imgType="figure"/> (A&#8211;D); examples of the GUIs for the adaptive listening effort measurement (ACALES mobile), situation definition of the EMA and questionnaire procedures are shown. For the voting tools, an A&#47;B comparison, and the addition of sound descriptors to the EMA were implemented.</Pgraph><Pgraph>Figure 1A <ImgLink imgNo="1" imgType="table"/> shows that when users start the app, they can see how many tasks previously defined in the dashboard have already been completed by means of coloured circles that fill up. In the app, this function of the circles is further emphasised by animations. In the ACALES mobile areas, progress bars and percentages are reported back to motivate the user to complete outstanding tasks; for questionnaires: how many questions still need to be answered.</Pgraph><Pgraph>The procedures and their implementation are presented in more detail below.</Pgraph><SubHeadline2>2.1.1 Questionnaires </SubHeadline2><Pgraph>When selecting suitable questionnaires, care was taken to ensure that they enabled the subjective assessment of hearing over the past two to four weeks to be recorded. The focus is on subjective hearing ability as a functional component, hearing-specific quality of life and long-term satisfaction as well as rehabilitation-specific characteristics. For the selection of the questionnaires, preliminary work by <TextLink reference="15"></TextLink> on bimodal care was considered, whereby various questionnaires were analysed as a follow-up. Based on psychometric parameters for change sensitivity Cohen&#8217;s <Mark2>d</Mark2> <TextLink reference="16"></TextLink> as an effect size measure, the questionnaires &#8220;SSQ12&#8221; <TextLink reference="17"></TextLink> and the Hearing Handicap Inventory &#8220;HHI&#8221; with the variants &#8211;E (Elderly, see <TextLink reference="18"></TextLink>) and &#8211;A (Adults, see <TextLink reference="19"></TextLink>) were identified as sensitive. The new variant of the HHI, the Revised Hearing Handicap Inventory <TextLink reference="20"></TextLink>, refers to both variants and is also available in a screening version (RHHI-S) and a long version (RHHI).</Pgraph><Pgraph>In contrast to the original scaling, only integer values from 0 to 10 can be entered in the SSQ12, which is due to the small user interface and user requirements, cf. also comparable work in the field of listening effort <TextLink reference="21"></TextLink>.</Pgraph><Pgraph>Other questionnaire inventories were also implemented. The &#8220;Hearing Implant Sound Quality Index HISQUI-19&#8221; <TextLink reference="22"></TextLink> includes functional components as well as questions on sound quality. The &#8220;Nijmegen Cochlear Implant Questionnaire&#8221; (NCIQ) <TextLink reference="23"></TextLink> has been implemented with all six subscales, a procedure that is mandatory in the CI White Paper on CI provision in Germany <TextLink reference="24"></TextLink>.</Pgraph><Pgraph>Furthermore, a total of nine rehabilitation-specific questions, which were formulated based on IRES <TextLink reference="25"></TextLink> and the ICF concept in audiology <TextLink reference="11"></TextLink>, were implemented as an in-house development.</Pgraph><SubHeadline2>2.1.2 Listening effort &#8211; ACALES mobile</SubHeadline2><Pgraph>In the ACALES listening effort measurement, see <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, sentences from the Oldenburg sentence test (OLSA, <TextLink reference="26"></TextLink> are presented in speech-simulating, stationary background noise (Olnoise). The subjects&#8217; task is to rate the subjectively perceived listening effort on a 13-point rating scale (ESCU; Effort Scaling Categorical Unit) from &#8220;effortless&#8221; (1 ESCU) to &#8220;extremely effortful&#8221; (13 ESCU) and an additional category &#8220;noise only&#8221;. During the measurement, the SNR is adaptively changed based on the test subjects&#8217; responses. The aim of this measurement is to determine the individual hearing effort function, in which each SNR value is assigned a rating category <TextLink reference="13"></TextLink>.</Pgraph><Pgraph>The measurement method was implemented as an independent programme library for use on mobile devices. The standard measurement is carried out &#8220;in a quiet domestic environment&#8221; with Olnoise. The measurement procedure was shortened for use on mobile devices outside the laboratory. The three phases of the stationary variant with </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">boundary definition, </ListItem><ListItem level="1" levelPosition="2" numString="2.">estimation of the SNR for the categories and random playback and evaluation of the SNRs, and </ListItem><ListItem level="1" levelPosition="3" numString="3.">recalculation of the limits and SNRs as well as the random playback (repeated twice) were reduced to the first two phases. </ListItem></OrderedList></Pgraph><Pgraph>In addition, only two of the original three OLSA sets are used. To improve input on a small smartphone screen, the rating scale was reduced from 13&#47;14 rating categories to 7&#47;8 categories (see Figure 1B <ImgLink imgNo="1" imgType="figure"/>); however, all seven original verbal anchors were retained.</Pgraph><Pgraph>The shortened mobile version vs. the long original version was tested regarding the scale length 13&#47;14 vs. 7&#47;8 and the presentation type PC vs. app with N&#61;15 and normal hearing N&#61;20 CI users. There were no significant differences either descriptively or statistically; a manuscript with detailed results is in preparation. </Pgraph><Pgraph>The measurements with CI patients showed that the signals were too soft and should therefore not be presented via the smartphone&#8217;s built-in loudspeaker. Other transmission channels are more suitable, such as streaming via a Bluetooth connection or additional active speakers. Although the application is telemedical oriented and is carried out in a private setting, it does not record the listening effort of everyday situations due to reliability aspects and comparability. A subjective survey of listening effort is explicitly included in the EMA surveys.</Pgraph><SubHeadline2>2.1.3 Ecological momentary assessment (EMA)</SubHeadline2><Pgraph>The EMA approach used here restricts the selection of listening situations to be assessed to individually relevant situations. In the primary concept, patients indicate the five most individually relevant listening situations (e.g., conversation in a restaurant, understanding speech while driving, etc.) at the beginning of the survey, qualify these with a short text (see Figure 1C <ImgLink imgNo="1" imgType="figure"/>) and then rate them when they are in the corresponding situation (for examples, see Figure 2A&#8211;C <ImgLink imgNo="2" imgType="figure"/>). This enables a before-and-after comparison that relates to identical situations&#47;classes and is intended to improve data quality. The idea of asking about individually significant situations is applied in a similar way in the &#8220;Client Oriented Scale of Improvement&#8221; questionnaire (COSI; <TextLink reference="12"></TextLink> to focus the fitting of hearing systems and the outcome on relevant, individually significant hearing situations.</Pgraph><Pgraph>The &#8220;Common Sound Scenarios&#8221; scheme from <TextLink reference="27"></TextLink> was adapted for the a priori classification of the relevant listening situations, see Table 1 <ImgLink imgNo="1" imgType="table"/>. This procedure serves to simplify the subsequent evaluation in clinical routine.</Pgraph><Pgraph>In the first step, the audiologists ask which intention is associated with the respective listening situation: &#8220;Conversation&#8221;, &#8220;Focused listening&#8221; or &#8220;Monitoring environment&#8221; during an activity. Based on the answer, further classification questions are generated. When selecting &#8220;Conversation&#8221;, the next step asks about the number of conversation partners and the presence of background noise, totalling six situations. If &#8220;Focused listening&#8221; is selected, the situation is further specified by asking about the presentation of the target signal (live or via a device) and the presence of disturbing background noise (speech, music), again six situations. When selecting the category &#8220;Monitoring environment&#8221;, the relevance of the ambient noise is asked to determine whether it is background noise during activities that needs to be &#8220;monitored&#8221; (e.g., traffic noise) or rather casually, incidental noise, such as background music when reading.</Pgraph><Pgraph>As soon as users find themselves in a classified situation, they are asked to answer specific questions relevant to the respective classes. This ensures systematic adaptivity in the selection of items.</Pgraph><Pgraph>Originally, the concept envisaged that users would carry out the classification themselves. User surveys revealed that the classification procedure was too much for patients. The classification is therefore carried out jointly in dialogue with the audiologists in the dashboard; however, classification is still possible in the app for experienced users.</Pgraph><Pgraph>In addition, relevant situations can be assessed spontaneously in the app. Here again, a situation is defined, as shown in Figure 1C <ImgLink imgNo="1" imgType="figure"/>, which is classified by the user based on example situations and queried directly without having to use the expert classification procedure.</Pgraph><Pgraph>Depending on the situation class (see column &#8220;No.&#8221; in Table 1 <ImgLink imgNo="1" imgType="table"/>), various hearing-related aspects are queried by the items via sliders (see column &#8220;Items&#8221; in Table 1 <ImgLink imgNo="1" imgType="table"/>):</Pgraph><Pgraph><Indentation>A.&#8220;Mood Scale&#8221; (see Figure 2A <ImgLink imgNo="2" imgType="figure"/>) </Indentation></Pgraph><Pgraph><Indentation>B.Volume left&#47;right verbal anchors from &#8220;much too loud&#8221; to &#8220;ideal&#8221; to &#8220;much too quiet&#8221;, possible separately for left and right</Indentation></Pgraph><Pgraph><Indentation>C.Understanding of speech (see Figure 2C <ImgLink imgNo="2" imgType="figure"/>) from &#8220;very clear&#8221; to &#8220;medium&#8221; to &#8220;very unclear&#8221;, separate setting for left and right possible</Indentation></Pgraph><Pgraph><Indentation>D.Sound quality left&#47;right from &#8220;very good&#8221; to &#8220;average&#8221; to &#8220;very poor&#8221;, possible separately for left and right</Indentation></Pgraph><Pgraph><Indentation>E.Source separation from &#8220;very good&#8221; to &#8220;average&#8221; to &#8220;very poor&#8221;</Indentation></Pgraph><Pgraph><Indentation>F.Feeling of participation in the dialogue situation &#8220;right in the middle&#8221; to &#8220;just there&#8221; (see Figure 2B <ImgLink imgNo="2" imgType="figure"/>)</Indentation></Pgraph><Pgraph><Indentation>G.Feeling of involvement in an acoustic scene &#8220;right in the middle&#8221; to &#8220;just there&#8221;</Indentation></Pgraph><Pgraph><Indentation>H.Listening effort from &#8220;effortless&#8221; to &#8220;medium&#8221; to &#8220;extremely effortful&#8221;.</Indentation></Pgraph><Pgraph>Items A, G and F serve as a query on &#8216;acute&#8217; quality of life&#47;participation, items B and D consider aspects of perception and items C, E and H record functional aspects of everyday life. Left&#47;right sliders were used for the volume, sound, and clarity of speech assessments to provide reference points for fitting the different devices of the bimodal fitting.</Pgraph><Pgraph>The &#8220;Mood Scale&#8221; distinguishes between five possible answers, while seven scale points are available for the other items.</Pgraph><Pgraph>Once all the hearing situations to be assessed have been entered in the dashboard along with the scheduling, a reminder of the situations is sent via push notification in the HearDL app on the smartphone (Figure 2D <ImgLink imgNo="2" imgType="figure"/>).</Pgraph><SubHeadline2>2.1.4 &#8220;Voting tools&#8221;</SubHeadline2><Pgraph>Two &#8220;voting tools&#8221; (VT) were developed: VT1 for comparing the two hearing systems (for bimodal provision: HA vs. CI) in a current hearing situation and VT2 for directly evaluating different settings or (new) product features in everyday life (A&#47;B comparison). While VT1 is always used in conjunction with a hearing situation as part of the EMA measurement, VT2 is completely stand-alone and is used to compare individual settings of a hearing system (e.g., different hearing programmes) or (new) product features of a hearing system in everyday life (e.g., different parameters of signal pre-processing).</Pgraph><Pgraph>The VT1 particularly addresses the bimodal fitting case: In a current everyday hearing situation in the EMA application, patients should assess whether they hear equally well with CI and HA and, if not, specify more precisely with which system they hear worse and why (predefined hearing assessment classes). To do this, it is essential that the VT1 is used in a clearly described hearing situation. For this reason, the VT1 is an extension of the EMA survey that can be configured (activated&#47;deactivated) by CI audiologists and hearing care professionals in the dashboard. The predefined sound and hearing evaluation classifications (e.g., speech and&#47;or background noise too loud&#47;too soft, own voice too loud, too muffled&#47;too sharp, noise, distorted, reverberation, echo) allow conclusions to be drawn about further individual programming and &#8211; if large amounts of data is available &#8211; also about general guidelines for fitting in order to optimise the combination of CI and hearing aid. The collection of items is based on qualitative surveys of CI patients as part of the usability studies during the development of the HearDL app and a collection of descriptors for the remote fitting of hearing aids <TextLink reference="28"></TextLink>.</Pgraph><SubHeadline>2.2 Dashboard</SubHeadline><Pgraph>The dashboard is a separate Windows PC programme and is set up as a multi-user system in which the patients and their hearing systems are created and managed by the audiologists using a patient ID. The corresponding test procedures can be selected and assigned to specific appointments and intervals so that a complete individual programme or a study design for patient groups can be created. The patient profiles and data can be exported for use in scientific analyses. Individually significant hearing situations can be created for the EMA application on a patient-specific basis. The patient data, the test design and the relevant EMA situations can be transferred from the dashboard to the smartphone app.</Pgraph><Pgraph>Data collected from patients can later be imported into the dashboard from a smartphone. Simple analyses of the collected data and visualisation of key results are possible directly in the dashboard. The data can be exported in a table format so that it can be analysed in more detail in other software (e.g., Microsoft Excel, statistics software).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="3. Implementation und Software&#47;Usability Engineering">
      <MainHeadline>3. Implementation und Software&#47;Usability Engineering</MainHeadline><SubHeadline>3.1 Programmierung und Betriebssysteme</SubHeadline><Pgraph>F&#252;r die Erarbeitung und Umsetzung der HearDL-App und des Dashboards wurde ein iteratives Vorgehen gew&#228;hlt, bei dem Teilfunktionalit&#228;ten nach und nach eingebaut, getestet und bei Bedarf angepasst werden konnten. Von Beginn an wurde die Softwareentwicklung mit einem System vorgenommen, das eine Cross-Plattform R<TextGroup><PlainText>eal</PlainText></TextGroup>isierung erlaubt. Da die konkrete Plattform, auf der die App l&#228;uft, weniger ausschlaggebend war, beschr&#228;nkte sich die Entwicklung zun&#228;chst auf iOS. Zu einem sp&#228;teren Zeitpunkt wurde die App auch f&#252;r Android-Systeme weiterentwickelt, so dass beide Smartphone-Betriebssysteme verf&#252;gbar sind. In &#228;hnlicher Weise wurde in der<TextGroup><PlainText> Soft</PlainText></TextGroup>warearchitektur von Anfang an eine m&#246;gliche &#220;bersetzung in weitere Sprachen vorgesehen. Aktuell liegt die App in deutscher und englischer Sprache vor. Das Dashboard wurde als Desktop-Software f&#252;r Windows und iOS realisiert und ist ebenfalls in den Sprachen Deutsch und Englisch verf&#252;gbar.</Pgraph><Pgraph>F&#252;r den iterativen Entwicklungsprozess der App und des Dashboards wurden &#252;ber den Verlauf des Projekts immer wieder neue Zwischenreleases der jeweiligen Software erstellt, um diese mit dem Fachpersonal und Patienten zu testen und nachfolgend ggf. zu modifizieren. Auf diese Weise wurde ein voll funktionsf&#228;higer Prototyp erstellt, der f&#252;r klinische Studien und f&#252;r die audiologische Praxis eingesetzt werden kann. Die weiteren Releases der App und des Dashboards werden nur noch f&#252;r Android erfolgen, da zum einen die Administration der iOS-App aufwendiger ist und zum anderen das Betriebssystem Android einen erheblich h&#246;heren Marktanteil aufweist als iOS.</Pgraph><SubHeadline>3.2 Usability Engineering</SubHeadline><Pgraph>Die Entwicklung der App-Tools und des Dashboards folgte &#252;ber den gesamten Zeitraum einem Usability-Prozess nach <TextLink reference="29"></TextLink>, einerseits durch Expert-Panels nach dem Prinzip der heuristischen Evaluation und andererseits mittels Nutzereinbindung und Patiententestungen. Die Patientenmessungen wurden in zwei Wellen durchgef&#252;hrt, und zwar zu Beginn der Entwicklung mit neun erfahrenen CI-Tr&#228;gern (dabei vier Probandinnen, Alter 51&#8211;70 Jahre) und vier Monate vor Abschluss der Entwicklung als lauff&#228;higer Prototyp mit 10 erfahrenen HG-Tr&#228;gern (dabei f&#252;nf Probandinnen, Alter 44&#8211;72 Jahre). Die Pr&#252;fungen dienten dazu, das Design, die Bedienung, deren Konsistenz und die Nutzerf&#252;hrung fortlaufend zu verbessern, insbesondere f&#252;r ACALES mobile und die EMA-Aufgaben. Die Screenshots, vgl. Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> und Abbildung 2 <ImgLink imgNo="2" imgType="figure"/>, sind das Resultat der Pr&#252;fungen.</Pgraph><SubHeadline>3.3  Datenschutz</SubHeadline><Pgraph>Bei der Entwicklung der HearDL-App wurde der &#8222;Mobile App Security Verification Standard&#8220; (MASVS) des Open Worldwide Application Security Project (OWASP, siehe <TextLink reference="30"></TextLink>) nicht explizit ber&#252;cksichtigt. Allerdings deckt sich die Implementierung weitestgehend mit den Anforderungen der beiden Pr&#252;f-Level MASVS-L1 (Standard Security) und MASVS-L2 (Defense-in-Depth). Beide Programme, die App auf dem Smartphone und das Dashboard f&#252;r Windows, sind keine Web-Anwendungen, sondern laufen lokal auf den jeweiligen Ger&#228;ten, Smartphone bzw. PC. Sie stellen selbst keine Netzwerkverbindungen her, sondern speichern und &#252;bertragen Daten ausschlie&#223;lich lokal auf dem jeweiligen Ger&#228;t. Die Daten&#252;bertragung zwischen App und Dashboard ist nur kabelgebunden m&#246;glich. Obwohl die App als EMA-Tool konzipiert ist und somit durchaus ein Interesse an zus&#228;tzlichen Informationen zu Ort und akustischer Umgebung besteht, werden von der App weder Positionsdaten noch akustische Daten erfasst oder gespeichert.</Pgraph><Pgraph>In der aktuellen Version ist es vorgesehen, anstelle des Klarnamens und Geburtsdatums eine Probanden-ID und weitere Daten zur H&#246;rsystemversorgung anzugeben. Die Daten der App-Nutzer k&#246;nnen nur von den lokale<TextGroup><PlainText>n N</PlainText></TextGroup>utzern des Dashboards, d.h. von den betreuenden Audiologen, eingesehen werden. Dar&#252;ber hinaus werden nur diejenigen Daten gesammelt und gespeichert, die durch die Frageb&#246;gen, das EMA-Tool, den ACALES-Test und die Voting-Tools abgefragt werden. Alle Austauschdaten werden in der Software in einem verschl&#252;sselten Format gespeichert. F&#252;r das Dashboard wird eine lokale&#47;ne<TextGroup><PlainText>t</PlainText></TextGroup>zwerkf&#228;hige Firebird-Datenbank genutzt. Diese nutzt einen passwortgesch&#252;tzten Zugang, so dass auf das Dashboard per Passwort und Nutzername nur angemeldete Nutzer Vollzugriff haben.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="3. Implementation and software&#47;usability engineering">
      <MainHeadline>3. Implementation and software&#47;usability engineering</MainHeadline><SubHeadline>3.1 Programming and operating systems</SubHeadline><Pgraph>An iterative approach was chosen for the development and implementation of the HearDL app and dashboard, in which partial functionalities could be gradually integrated, tested and adapted as required. Right from the start, the software was developed using a system that allows cross-platform realisation. As the specific platform on which the app runs was less important, development was initially limited to iOS. At a later stage, the app was also further developed for Android systems so that both smartphone operating systems are available. Similarly, a possible translation into other languages was provided for in the software architecture from the outset. The app is currently available in German and English. The dashboard was realised as desktop software for Windows and iOS and is also available in German and English.</Pgraph><Pgraph>For the iterative development process of the app and the dashboard, new interim releases of the respective software were repeatedly created over the course of the project to test them with the specialist staff and patients and subsequently modify them if necessary. In this way, a fully functional prototype was created that can be used for clinical studies and audiological practice. Further releases of the app and dashboard will only be made for Android, as the administration of the iOS app is more complex, and the Android operating system has a significantly higher market share than iOS.</Pgraph><SubHeadline>3.2 Usability engineering</SubHeadline><Pgraph>The development of the app tools and the dashboard followed a usability process over the entire period in accordance with <TextLink reference="29"></TextLink>, on the one hand through expert panels based on the principle of heuristic evaluation and on the other hand through user involvement and patient testing. The patient measurements were carried out in two waves, namely at the beginning of development with nine experienced CI users (four test subjects, aged 51&#8211;70 years) and four months before the end of development as an executable prototype with 10 experienced HG users (five test subjects, aged 44&#8211;72 years). The tests were used to continuously improve the design, operation, consistency, and user guidance, especially for ACALES mobile and the EMA tasks. The screenshots, see Figure 1 <ImgLink imgNo="1" imgType="figure"/> and Figure 2 <ImgLink imgNo="2" imgType="figure"/>, are the result of the tests.</Pgraph><SubHeadline>3.3 Data protection </SubHeadline><Pgraph>The &#8220;Mobile App Security Verification Standard&#8221; (MASVS) of the Open Worldwide Application Security Project (OWASP, see <TextLink reference="30"></TextLink>) was not explicitly considered in the development of the HearDL app. However, the implementation largely complies with the requirements of the two verification levels MASVS-L1 (Standard Security) and MASVS-L2 (Defence-in-Depth). Both programmes, the app on the smartphone and the dashboard for Windows, are not web applications, but run locally on the respective devices, smartphone, or PC. They do not establish any network connections themselves, but only save and transfer data locally on the respective device. Data transfer between the app and dashboard is only possible via cable. Although the app is designed as an EMA tool and there is therefore an interest in additional information about the location and acoustic environment, the app does not record or store position data or acoustic data.</Pgraph><Pgraph>In the current version, it is planned to enter participant&#8217;s ID and other data on hearing system care instead of the clear name and date of birth. The app users&#8217; data can only be viewed by the local users of the dashboard, i.e., the audiologists in charge. In addition, only the data requested by the questionnaires, the EMA tool, the ACALES test and the voting tools are collected and stored. All exchange data is stored in the software in an encrypted format. A local&#47;network-compatible Firebird database is used for the dashboard. This uses password-protected access so that only logged-in users have full access to the dashboard via password and username.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="4. Diskussion und zuk&#252;nftige Entwicklungen">
      <MainHeadline>4. Diskussion und zuk&#252;nftige Entwicklungen</MainHeadline><Pgraph>Im Mittelpunkt der App-Entwicklung standen bimodal versorgte Patienten. Generell k&#246;nnen jedoch auch einseitig oder beidseitig versorgte HG- und&#47;oder CI-Tr&#228;ger oder Tr&#228;ger anderer H&#246;rl&#246;sungen die App verwenden. F&#252;r Forschung und Therapie kommen folgende Anwendungsfelder in Frage: Hinweise f&#252;r den individuellen Therapie- und Reha-Korridor, zus&#228;tzliche Daten in klinischen Messungen zur Erh&#246;hung der &#246;kologischen Validit&#228;t, Unterst&#252;tzung bei bimodalen Anpassungsstrategien, Entwicklung von bimodalen Signalverarbeitungen und der Dokumentation des Nutzens der auralen HG- und CI-Rehabilitation. HearDL eignet sich insbesondere dazu, die erhobenen Alltagsdaten mit Labordaten abzugleichen. So kann der Frage nachgegangen werden, ob die klinischen Messungen aussagekr&#228;ftig genug sind, um das Al<TextGroup><PlainText>ltag</PlainText></TextGroup>sh&#246;ren der Patienten widerzuspiegeln.</Pgraph><Pgraph>Diese Frage stellt sich besonders f&#252;r den &#8222;bimodalen Abgleich&#8220;. Derzeit ist es unbekannt, wie genau die bimodale Anpassung zu erfolgen hat, weil die Anpassung oftmals in zwei audiologischen Welten und getrennt f&#252;r jedes H&#246;rsystem erfolgt. Mit dem Voting-Tool VT1 von HearDL k&#246;nnen ggf. Aussagen dar&#252;ber getroffen werden, wie eine &#8222;optimale&#8220; Perzeption erzeugt werden kann, wie Signalvorverarbeitungen f&#252;r eine Synergie eingestellt werden m&#252;ssen und ob ger&#228;tespezifische Voreinstellungen oder Automatiken nachteilig sind. Mit der HearDL-App wird die Hoffnung verbunden, zuk&#252;nftig f&#252;r die bimodale Anpassung datengest&#252;tzte Hinweise zu bekommen, die dann in Anpassregeln m&#252;nden k&#246;nnten.</Pgraph><Pgraph>Die hier konzipierte App erg&#228;nzt bisherige telemedizinische Anwendungen, wie z.B. Cochlear<Superscript>TM</Superscript> Remote Check <TextLink reference="9"></TextLink>, um ein verk&#252;rztes Verfahren zur H&#246;ranstrengung als &#8218;ACALES mobile&#8216;, ein Bewertungsverfahren zur bimodalen Versorgung und ein f&#252;r den klinischen Einsatz geeignetes und optimiertes EMA-Design. Es bietet sich an, ein weiteres audiologisches Messverfahren, z.B. der Ziffern-Tripel-Test (ZTT, <TextLink reference="31"></TextLink>), in HearDL auf einer Endger&#228;teumgebung zu implementieren, um alle wesentlichen Messungen aus einer Applikation zu starten und f&#252;r die Auswertung verf&#252;gbar zu haben. So w&#228;re eine Vergleichbarkeit mit der Remote Check App <TextLink reference="9"></TextLink> m&#246;glich, bei der der ZTT auch implementiert ist. Zus&#228;tzlich bietet es sich an, die Implementierung des OLSA zu pr&#252;fen, ggf. konkurrierend, da mithilfe des OLSA der Vergleich mit klinischen Routinedaten m&#246;glich sein wird.</Pgraph><Pgraph>Bei vielen EMA-Messungen wurden auch akustische Daten der jeweiligen Situationen mit den subjektiven Bewertungen gekoppelt; f&#252;r einen &#220;berblick siehe <TextLink reference="8"></TextLink>. Zuk&#252;nftig ist diese Kopplung auch f&#252;r die HearDL App sinnvoll, jedoch wurde hier zun&#228;chst das Augenmerk auf die teleaudiologische Erfassung von Patientendaten unabh&#228;ngig von H&#246;rsystemen einzelner Hersteller gelegt.</Pgraph><Pgraph>Derzeit wird ein Content-Management-System (CMS) f&#252;r neue Frageb&#246;gen erstellt, das im Dashboard integriert wird. Hierdurch wird es f&#252;r Audiologen m&#246;glich, weitere international gebr&#228;uchliche Fragebogenbatterien mittels einer GUI selbst zu erstellen und in Forschungsprojekten einzusetzen. Generell sollten Vergleiche von Pencil-Paper-Abfragen vs. App-basierter Erfassung gepr&#252;ft werden, wie auch die Aufl&#246;sung der SSQ-Skala (Original mit Feingradation zwischen ganzzahligen Werten vs. verwendete 11<TextGroup><PlainText>-</PlainText></TextGroup>Punkt-Skala). Eine Erweiterung ist auch f&#252;r die Liste der Klangdeskriptoren f&#252;r den bimodalen Versorgungsfall im Rahmen klinischer Studien vorgesehen.</Pgraph><Pgraph>Die Gebrauchstauglichkeit der App und des Dashboards wurde durch Hinzuziehung von audiologischen und medizinischen Experten sowie potenziellen Nutzern gepr&#252;ft. Dennoch sind weitere umfangreiche Pilottestungen in unterschiedlichen klinischen und h&#228;uslichen Settings sowie weitere Validierungsstudien im Bereich von ACALES mobile und der Frageb&#246;gen notwendig, um die Vergleichbarkeit mit herk&#246;mmlichen Pencil-Paper Messungen und PC gest&#252;tzten Messverfahren zu gew&#228;hrleisten.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="4. Discussion and future developments">
      <MainHeadline>4. Discussion and future developments</MainHeadline><Pgraph>Bimodal patients were at the centre of the app development. In general, however, unilateral or bilateral HG and&#47;or CI users or users of other hearing solutions can also use the app. The following fields of application are possible for research and rehabilitation: indications for the individual therapy and rehabilitation corridor, additional data in clinical measurements to increase ecological validity, support for bimodal fitting strategies, development of bimodal signal processing, and documentation of the benefits of aural HA and CI rehabilitation. HearDL is particularly suitable for comparing the everyday data collected with laboratory data. In this way, the question of whether the clinical measurements are meaningful enough to reflect the everyday hearing of patients can be investigated.</Pgraph><Pgraph>This question arises in particular for &#8220;bimodal fitting&#8221;. It is currently not known exactly how bimodal fitting should be carried out because fitting often takes place in two audiological worlds and separately for each hearing system. With the VT1 voting tool from HearDL, it may be possible to make statements about how &#8220;optimal&#8221; perception can be achieved, how signal pre-processing must be set for synergy and whether device-specific pre-settings or automatic settings are disadvantageous. It is assumed that the HearDL app will provide data-supported information for bimodal adaptation in the future, which could then lead to adaptation rules.</Pgraph><Pgraph>The app designed here supplements previous telemedical applications, such as Cochlear<Superscript>TM</Superscript> Remote Check <TextLink reference="9"></TextLink>, with a shortened hearing effort procedure as &#8216;ACALES mobile&#8217;, an assessment procedure for bimodal fitting and an EMA design that is suitable and optimised for clinical use. It makes sense to implement another audiological measurement procedure, e.g., the digit triple test (DTT, <TextLink reference="31"></TextLink>), in HearDL on a terminal device environment to start all essential measurements from one application and have them available for evaluation. This would enable comparability with the Remote Check App <TextLink reference="9"></TextLink>, in which the DTT is also implemented. In addition, it makes sense to test the implementation of the OLSA, possibly in competition with it, as the OLSA will enable comparison with routine clinical data.</Pgraph><Pgraph>In many EMA measurements, acoustic data of the respective situations were also coupled with the subjective assessments; for an overview, see <TextLink reference="8"></TextLink>. In the future, this coupling will also be useful for the HearDL app, but the focus here was initially on the tele-audiological recording of patient data independently of hearing systems from individual manufacturers.</Pgraph><Pgraph>A content management system (CMS) for new questionnaires is currently being created and will be integrated into the dashboard. This will make it possible for audiologists to create further internationally used questionnaire batteries themselves using a GUI and use them in research projects. In general, comparisons of pencil-and-paper questionnaires vs. app-based recording should be examined, as well as the resolution of the SSQ scale (original with fine gradation between integer values vs. the 11-point scale used). An extension is also planned for the list of sound descriptors for the bimodal care case in the context of clinical studies.</Pgraph><Pgraph>The usability of the app and the dashboard was tested by consulting audiological and medical experts as well as potential users. Nevertheless, further extensive pilot tests in different clinical and home settings as well as further validation studies around ACALES mobile and the questionnaires are necessary to ensure comparability with conventional pencil-paper measurements and PC-based </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkungen">
      <MainHeadline>Anmerkungen</MainHeadline><SubHeadline>Einhaltung ethischer Richtlinien</SubHeadline><Pgraph>Die hier beschriebenen Untersuchungen am Menschen wurden mit Zustimmung der zust&#228;ndigen Ethik-Kommission (Nr.: 2020-071 der Medizinischen Ethikkommission Oldenburg) im Einklang mit nationalem Recht sowie gem&#228;&#223; der Deklaration von Helsinki von 1975, dabei in der aktuellen, &#252;berarbeiteten Fassung, durchgef&#252;hrt. Von allen Patienten liegt eine Einverst&#228;ndniserkl&#228;rung vor.</Pgraph><SubHeadline>Danksagung</SubHeadline><Pgraph>Wir danken den Patientinnen und Patienten der Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohrenheilkunde am Evangelischen Krankenhaus in Oldenburg. </Pgraph><SubHeadline>Interessenkonflikte</SubHeadline><Pgraph>Horst Hessel und Markus Meis sind Angestellte der Firma Cochlear Deutschland GmbH &#38; Co KG. Rabea Wortmann ist Angestellte bei der GN Hearing GmbH, Deutschland. Die anderen Koautoren Melanie Kr&#252;ger, Andreas Radeloff, Mareike Grundmann, Michael Buscherm&#246;hle, Inga Holube und Petra von Gablenz berichten keine Interessenskonflikte.</Pgraph><SubHeadline>F&#246;rderung</SubHeadline><Pgraph>Die Arbeiten entstanden im Projekt &#8222;Hearing in Daily Life (HearDL)&#8220;, gef&#246;rdert vom Bundesministerium f&#252;r Bildung und Forschung (BMBF); FKZ: 13GW0266A.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Notes">
      <MainHeadline>Notes</MainHeadline><SubHeadline>Compliance with ethical guidelines</SubHeadline><Pgraph>The human studies described here were carried out with the approval of the responsible ethics committee (No.: 2020-071 of the Medical Ethics Committee Oldenburg) in accordance with national law and the Declaration of Helsinki of 1975, in the current, revised version. A declaration of consent has been obtained from all patients.</Pgraph><SubHeadline>Acknowledgement</SubHeadline><Pgraph>We would like to thank the patients of the University Clinic for Ear, Nose and Throat Medicine at the Evangelical Hospital in Oldenburg. </Pgraph><SubHeadline>Conflicts of interest</SubHeadline><Pgraph>Horst Hessel and Markus Meis are employees of Cochlear Deutschland GmbH &#38; Co KG. Rabea Wortmann is an employee of GN Hearing GmbH, Germany. The other co-authors Melanie Krueger, Andreas Radeloff, Mareike Grundmann, Michael Buscherm&#246;hle, Inga Holube, and Petra von Gablenz report no conflicts of interest.</Pgraph><SubHeadline>Funding</SubHeadline><Pgraph>The work was carried out as part of the &#8220;Hearing in Daily Life (HearDL)&#8221; project, funded by the Federal Ministry of Education and Research (BMBF); Grant number: 13GW0266A.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Hoppe U</RefAuthor>
        <RefAuthor>Hocke T</RefAuthor>
        <RefAuthor>Digeser F</RefAuthor>
        <RefTitle>Bimodal benefit for cochlear implant listeners with different grades of hearing loss in the opposite ear</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Acta Otolaryngol</RefJournal>
        <RefPage>713-21</RefPage>
        <RefTotal>Hoppe U, Hocke T, Digeser F. Bimodal benefit for cochlear implant listeners with different grades of hearing loss in the opposite ear. Acta Otolaryngol. 2018 Aug;138(8):713-21. DOI: 10.1080&#47;00016489.2018.1444281</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;00016489.2018.1444281</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Chisolm TH</RefAuthor>
        <RefAuthor>Johnson CE</RefAuthor>
        <RefAuthor>Danhauer JL</RefAuthor>
        <RefAuthor>Portz LJ</RefAuthor>
        <RefAuthor>Abrams HB</RefAuthor>
        <RefAuthor>Lesner S</RefAuthor>
        <RefAuthor>McCarthy PA</RefAuthor>
        <RefAuthor>Newman CW</RefAuthor>
        <RefTitle>A systematic review of health-related quality of life and hearing aids: final report of the American Academy of Audiology Task Force On the Health-Related Quality of Life Benefits of Amplification in Adults</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>151-83</RefPage>
        <RefTotal>Chisolm TH, Johnson CE, Danhauer JL, Portz LJ, Abrams HB, Lesner S, McCarthy PA, Newman CW. A systematic review of health-related quality of life and hearing aids: final report of the American Academy of Audiology Task Force On the Health-Related Quality of Life Benefits of Amplification in Adults. J Am Acad Audiol. 2007 Feb;18(2):151-83. DOI: 10.3766&#47;jaaa.18.2.7</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.18.2.7</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>McRackan TR</RefAuthor>
        <RefAuthor>Bauschard M</RefAuthor>
        <RefAuthor>Hatch JL</RefAuthor>
        <RefAuthor>Franko-Tobin E</RefAuthor>
        <RefAuthor>Droghini HR</RefAuthor>
        <RefAuthor>Nguyen SA</RefAuthor>
        <RefAuthor>Dubno JR</RefAuthor>
        <RefTitle>Meta-analysis of quality-of-life improvement after cochlear implantation and associations with speech recognition abilities</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Laryngoscope</RefJournal>
        <RefPage>982-90</RefPage>
        <RefTotal>McRackan TR, Bauschard M, Hatch JL, Franko-Tobin E, Droghini HR, Nguyen SA, Dubno JR. Meta-analysis of quality-of-life improvement after cochlear implantation and associations with speech recognition abilities. Laryngoscope. 2018 Apr;128(4):982-90. DOI: 10.1002&#47;lary.26738</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1002&#47;lary.26738</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Keidser G</RefAuthor>
        <RefAuthor>Naylor G</RefAuthor>
        <RefAuthor>Brungart DS</RefAuthor>
        <RefAuthor>Caduff A</RefAuthor>
        <RefAuthor>Campos J</RefAuthor>
        <RefAuthor>Carlile S</RefAuthor>
        <RefAuthor>Carpenter MG</RefAuthor>
        <RefAuthor>Grimm G</RefAuthor>
        <RefAuthor>Hohmann V</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefAuthor>Launer S</RefAuthor>
        <RefAuthor>Lunner T</RefAuthor>
        <RefAuthor>Mehra R</RefAuthor>
        <RefAuthor>Rapport F</RefAuthor>
        <RefAuthor>Slaney M</RefAuthor>
        <RefAuthor>Smeds K</RefAuthor>
        <RefTitle>The Quest for Ecological Validity in Hearing Science: What It Is, Why It Matters, and How to Advance It</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>5S-19S</RefPage>
        <RefTotal>Keidser G, Naylor G, Brungart DS, Caduff A, Campos J, Carlile S, Carpenter MG, Grimm G, Hohmann V, Holube I, Launer S, Lunner T, Mehra R, Rapport F, Slaney M, Smeds K. The Quest for Ecological Validity in Hearing Science: What It Is, Why It Matters, and How to Advance It. Ear Hear. 2020;41 Suppl 1(Suppl 1):5S-19S. DOI: 10.1097&#47;AUD.0000000000000944</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;AUD.0000000000000944</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Gatehouse S</RefAuthor>
        <RefAuthor>Elberling C</RefAuthor>
        <RefAuthor>Naylor G</RefAuthor>
        <RefTitle>Aspects of auditory ecology and psychoacoustic function as determinants of benefits from and candidature for non-linear processing in hearing aids</RefTitle>
        <RefYear>1999</RefYear>
        <RefBookTitle>Auditory models and nonlinear hearing instruments. 18th Danavox Symposium.</RefBookTitle>
        <RefPage>221-33</RefPage>
        <RefTotal>Gatehouse S, Elberling C, Naylor G. Aspects of auditory ecology and psychoacoustic function as determinants of benefits from and candidature for non-linear processing in hearing aids. In: Auditory models and nonlinear hearing instruments. 18th Danavox Symposium. 1999. p. 221-33. Available from: http:&#47;&#47;www.audiological-library.gnresound.dk&#47;</RefTotal>
        <RefLink>http:&#47;&#47;www.audiological-library.gnresound.dk&#47;</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Meis M</RefAuthor>
        <RefAuthor>Krueger M</RefAuthor>
        <RefAuthor>von Gablenz P</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefAuthor>Gebhard M</RefAuthor>
        <RefAuthor>Latzel M</RefAuthor>
        <RefAuthor>Paluch R</RefAuthor>
        <RefTitle>Development and Application of an Annotation Procedure to Assess the Impact of Hearing Aid Amplification on Interpersonal Communication Behavior</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Trends in Hearing</RefJournal>
        <RefPage>1-17</RefPage>
        <RefTotal>Meis M, Krueger M, von Gablenz P, Holube I, Gebhard M, Latzel M, Paluch R. Development and Application of an Annotation Procedure to Assess the Impact of Hearing Aid Amplification on Interpersonal Communication Behavior. Trends in Hearing. 2018;22:1-17. DOI: 10.1177&#47;2331216518816201</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;2331216518816201</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Meis M</RefAuthor>
        <RefAuthor>Kr&#252;ger M</RefAuthor>
        <RefAuthor>Gebhard M</RefAuthor>
        <RefAuthor>von Gablenz P</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefAuthor>Grimm G</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle>Overview of new outcome tools addressing auditory ecological validity: Analyses of behavior in real life settings</RefTitle>
        <RefYear>2017</RefYear>
        <RefBookTitle>Proceedings of the International Symposium on Auditory and Audiological Research (Proc. ISAAR), Volume 6: Adaptive Processes in Hearing, August 2017 Nyborg, Denmark</RefBookTitle>
        <RefPage>31-8</RefPage>
        <RefTotal>Meis M, Kr&#252;ger M, Gebhard M, von Gablenz P, Holube I, Grimm G, et al. Overview of new outcome tools addressing auditory ecological validity: Analyses of behavior in real life settings. In: Santurette S, Dau T, Christensen-Dalsgaard J, Tranebj&#230;rg L, Andersen T, Poulsen T, editors. Proceedings of the International Symposium on Auditory and Audiological Research (Proc. ISAAR), Volume 6: Adaptive Processes in Hearing, August 2017 Nyborg, Denmark. The Danavox Jubilee Foundation; 2017. p. 31-8.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Holube I</RefAuthor>
        <RefAuthor>von Gablenz P</RefAuthor>
        <RefAuthor>Bitzer J</RefAuthor>
        <RefTitle>Ecological Momentary Assessment in Hearing Research: Current State, Challenges, and Future Directions</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>79S-90S</RefPage>
        <RefTotal>Holube I, von Gablenz P, Bitzer J. Ecological Momentary Assessment in Hearing Research: Current State, Challenges, and Future Directions. Ear Hear. 2020;41 Suppl 1:79S-90S. DOI: 10.1097&#47;AUD.0000000000000934</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;AUD.0000000000000934</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Maruthurkkara S</RefAuthor>
        <RefAuthor>Allen A</RefAuthor>
        <RefAuthor>Cullington H</RefAuthor>
        <RefAuthor>Muff J</RefAuthor>
        <RefAuthor>Arora K</RefAuthor>
        <RefAuthor>Johnson S</RefAuthor>
        <RefTitle>Remote check test battery for cochlear implant recipients: proof of concept study</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>443-52</RefPage>
        <RefTotal>Maruthurkkara S, Allen A, Cullington H, Muff J, Arora K, Johnson S. Remote check test battery for cochlear implant recipients: proof of concept study. Int J Audiol. 2022 Jun;61(6):443-52. DOI: 10.1080&#47;14992027.2021.1922767</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;14992027.2021.1922767</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Wu YH</RefAuthor>
        <RefAuthor>Stangl E</RefAuthor>
        <RefAuthor>Zhang X</RefAuthor>
        <RefAuthor>Bentler RA</RefAuthor>
        <RefTitle>Construct Validity of the Ecological Momentary Assessment in Audiology Research</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>872-84</RefPage>
        <RefTotal>Wu YH, Stangl E, Zhang X, Bentler RA. Construct Validity of the Ecological Momentary Assessment in Audiology Research. J Am Acad Audiol. 2015;26(10):872-84. DOI: 10.3766&#47;jaaa.15034</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.15034</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Granberg S</RefAuthor>
        <RefAuthor>Swanepoel DW</RefAuthor>
        <RefAuthor>Englund U</RefAuthor>
        <RefAuthor>M&#246;ller C</RefAuthor>
        <RefAuthor>Danermark B</RefAuthor>
        <RefTitle>The ICF core sets for hearing loss project: International expert survey on functioning and disability of adults with hearing loss using the international classification of functioning, disability, and health (ICF)</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>497-506</RefPage>
        <RefTotal>Granberg S, Swanepoel DW, Englund U, M&#246;ller C, Danermark B. The ICF core sets for hearing loss project: International expert survey on functioning and disability of adults with hearing loss using the international classification of functioning, disability, and health (ICF). Int J Audiol. 2014 Aug;53(8):497-506. DOI: 10.3109&#47;14992027.2014.900196</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2014.900196</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Dillon H</RefAuthor>
        <RefAuthor>James A</RefAuthor>
        <RefAuthor>Ginis J</RefAuthor>
        <RefTitle>Client Oriented Scale of Improvement (COSI) and its relationship to several other measures of benefit and satisfaction provided by hearing aids</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>27-43</RefPage>
        <RefTotal>Dillon H, James A, Ginis J. Client Oriented Scale of Improvement (COSI) and its relationship to several other measures of benefit and satisfaction provided by hearing aids. J Am Acad Audiol. 1997 Feb;8(1):27-43.</RefTotal>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Krueger M</RefAuthor>
        <RefAuthor>Schulte M</RefAuthor>
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefTitle>Development of an adaptive scaling method for subjective listening effort</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>4680</RefPage>
        <RefTotal>Krueger M, Schulte M, Brand T, Holube I. Development of an adaptive scaling method for subjective listening effort. J Acoust Soc Am. 2017 Jun;141(6):4680. DOI: 10.1121&#47;1.4986938</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.4986938</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Krueger M</RefAuthor>
        <RefAuthor>Schulte M</RefAuthor>
        <RefAuthor>Zokoll MA</RefAuthor>
        <RefAuthor>Wagener KC</RefAuthor>
        <RefAuthor>Meis M</RefAuthor>
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefTitle>Relation Between Listening Effort and Speech Intelligibility in Noise</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Am J Audiol</RefJournal>
        <RefPage>378-92</RefPage>
        <RefTotal>Krueger M, Schulte M, Zokoll MA, Wagener KC, Meis M, Brand T, Holube I. Relation Between Listening Effort and Speech Intelligibility in Noise. Am J Audiol. 2017 Oct;26(3S):378-92. DOI: 10.1044&#47;2017&#95;AJA-16-0136</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1044&#47;2017&#95;AJA-16-0136</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Grundmann M</RefAuthor>
        <RefAuthor>Plotz K</RefAuthor>
        <RefAuthor>Radeloff A</RefAuthor>
        <RefAuthor>Schulze G</RefAuthor>
        <RefAuthor>Meis M</RefAuthor>
        <RefTitle>Psychometry and test of a questionnaire tool for evaluating the patients&#8217; Health related Quality of Life in the realm of bimodal hearing system supply</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>50-6</RefPage>
        <RefTotal>Grundmann M, Plotz K, Radeloff A, Schulze G, Meis M. Psychometry and test of a questionnaire tool for evaluating the patients&#8217; Health related Quality of Life in the realm of bimodal hearing system supply. Z Audiol. 2019;58(2):50-6. DOI: 10.4126&#47;FRL01-006417780</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.4126&#47;FRL01-006417780</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Cohen J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1988</RefYear>
        <RefBookTitle>Statistical Power Analysis for the Behavioral Sciences</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Cohen J. Statistical Power Analysis for the Behavioral Sciences. New York: Psychology Press; 1988.</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Noble W</RefAuthor>
        <RefAuthor>Jensen NS</RefAuthor>
        <RefAuthor>Naylor G</RefAuthor>
        <RefAuthor>Bhullar N</RefAuthor>
        <RefAuthor>Akeroyd MA</RefAuthor>
        <RefTitle>A short form of the Speech, Spatial and Qualities of Hearing scale suitable for clinical use: the SSQ12</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>409-12</RefPage>
        <RefTotal>Noble W, Jensen NS, Naylor G, Bhullar N, Akeroyd MA. A short form of the Speech, Spatial and Qualities of Hearing scale suitable for clinical use: the SSQ12. Int J Audiol. 2013 Jun;52(6):409-12. DOI: 10.3109&#47;14992027.2013.781278</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2013.781278</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Ventry IM</RefAuthor>
        <RefAuthor>Weinstein BE</RefAuthor>
        <RefTitle>The hearing handicap inventory for the elderly: a new tool</RefTitle>
        <RefYear>1982</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>128-34</RefPage>
        <RefTotal>Ventry IM, Weinstein BE. The hearing handicap inventory for the elderly: a new tool. Ear Hear. 1982;3(3):128-34. DOI: 10.1097&#47;00003446-198205000-00006</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00003446-198205000-00006</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Newman CW</RefAuthor>
        <RefAuthor>Weinstein BE</RefAuthor>
        <RefAuthor>Jacobson GP</RefAuthor>
        <RefAuthor>Hug GA</RefAuthor>
        <RefTitle>The Hearing Handicap Inventory for Adults: psychometric adequacy and audiometric correlates</RefTitle>
        <RefYear>1990</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>430-3</RefPage>
        <RefTotal>Newman CW, Weinstein BE, Jacobson GP, Hug GA. The Hearing Handicap Inventory for Adults: psychometric adequacy and audiometric correlates. Ear Hear. 1990 Dec;11(6):430-3. DOI: 10.1097&#47;00003446-199012000-00004</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00003446-199012000-00004</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Cassarly C</RefAuthor>
        <RefAuthor>Matthews LJ</RefAuthor>
        <RefAuthor>Simpson AN</RefAuthor>
        <RefAuthor>Dubno JR</RefAuthor>
        <RefTitle>The Revised Hearing Handicap Inventory and Screening Tool Based on Psychometric Reevaluation of the Hearing Handicap Inventories for the Elderly and Adults</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>95-105</RefPage>
        <RefTotal>Cassarly C, Matthews LJ, Simpson AN, Dubno JR. The Revised Hearing Handicap Inventory and Screening Tool Based on Psychometric Reevaluation of the Hearing Handicap Inventories for the Elderly and Adults. Ear Hear. 2020;41(1):95-105. DOI: 10.1097&#47;AUD.0000000000000746</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;AUD.0000000000000746</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Schulte M</RefAuthor>
        <RefAuthor>Krueger M</RefAuthor>
        <RefAuthor>Meis M</RefAuthor>
        <RefAuthor>Wagener KC</RefAuthor>
        <RefTitle>Subjective listening effort</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>2236</RefPage>
        <RefTotal>Schulte M, Krueger M, Meis M, Wagener KC. Subjective listening effort. J Acoust Soc Am. 2015 Apr 1;137(4&#95;Supplement):2236. DOI: 10.1121&#47;1.4920159</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.4920159</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Amann E</RefAuthor>
        <RefAuthor>Anderson I</RefAuthor>
        <RefTitle>Development and validation of a questionnaire for hearing implant users to self-assess their auditory abilities in everyday communication situations: the Hearing Implant Sound Quality Index (HISQUI19)</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Acta Otolaryngol</RefJournal>
        <RefPage>915-23</RefPage>
        <RefTotal>Amann E, Anderson I. Development and validation of a questionnaire for hearing implant users to self-assess their auditory abilities in everyday communication situations: the Hearing Implant Sound Quality Index (HISQUI19). Acta Otolaryngol. 2014 Sep;134(9):915-23. DOI: 10.3109&#47;00016489.2014.909604</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;00016489.2014.909604</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Hinderink JB</RefAuthor>
        <RefAuthor>Krabbe PF</RefAuthor>
        <RefAuthor>Van Den Broek P</RefAuthor>
        <RefTitle>Development and application of a health-related quality-of-life instrument for adults with cochlear implants: the Nijmegen cochlear implant questionnaire</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Otolaryngol Head Neck Surg</RefJournal>
        <RefPage>756-65</RefPage>
        <RefTotal>Hinderink JB, Krabbe PF, Van Den Broek P. Development and application of a health-related quality-of-life instrument for adults with cochlear implants: the Nijmegen cochlear implant questionnaire. Otolaryngol Head Neck Surg. 2000 Dec;123(6):756-65. DOI: 10.1067&#47;mhn.2000.108203</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1067&#47;mhn.2000.108203</RefLink>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>DGHNO-KHC</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2021</RefYear>
        <RefBookTitle>Wei&#223;buch Cochlea-Implantat(CI)-Versorgung. Empfehlungen zur Struktur, Organisation, Ausstattung, Qualifikation und Qualit&#228;tssicherung in der Versorgung von Patienten mit einem Cochlea Implantat in der Bundesrepublik Deutschland</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>DGHNO-KHC. Wei&#223;buch Cochlea-Implantat(CI)-Versorgung. Empfehlungen zur Struktur, Organisation, Ausstattung, Qualifikation und Qualit&#228;tssicherung in der Versorgung von Patienten mit einem Cochlea Implantat in der Bundesrepublik Deutschland. &#220;berarbeitete 2. Auflage. 2021. Available from: https:&#47;&#47;www.hno.org&#47;kollegen&#47;stellungnahmen.html</RefTotal>
        <RefLink>https:&#47;&#47;www.hno.org&#47;kollegen&#47;stellungnahmen.html</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>B&#252;hrlen B</RefAuthor>
        <RefAuthor>Gerdes N</RefAuthor>
        <RefAuthor>J&#228;ckel WH</RefAuthor>
        <RefTitle>Entwicklung und psychometrische Testung eines Patientenfragebogens f&#252;r die medizinische Rehabilitation (IRES-3)</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Rehabilitation (Stuttg)</RefJournal>
        <RefPage>63-74</RefPage>
        <RefTotal>B&#252;hrlen B, Gerdes N, J&#228;ckel WH. Entwicklung und psychometrische Testung eines Patientenfragebogens f&#252;r die medizinische Rehabilitation (IRES-3) &#91;Development and psychometric testing of a patient questionnaire for medical rehabilitation (IRES-3)&#93;. Rehabilitation (Stuttg). 2005 Apr;44(2):63-74. DOI: 10.1055&#47;s-2004-834687</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1055&#47;s-2004-834687</RefLink>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Wagener K</RefAuthor>
        <RefAuthor>K&#252;hnel V</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache I: Design des Oldenburger Satztests</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>4-15</RefPage>
        <RefTotal>Wagener K, K&#252;hnel V, Kollmeier B. Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache I: Design des Oldenburger Satztests. Z Audiol. 1999;38(1):4-15.</RefTotal>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Wolters F</RefAuthor>
        <RefAuthor>Smeds K</RefAuthor>
        <RefAuthor>Schmidt E</RefAuthor>
        <RefAuthor>Christensen EK</RefAuthor>
        <RefAuthor>Norup C</RefAuthor>
        <RefTitle>Common Sound Scenarios: A Context-Driven Categorization of Everyday Sound Environments for Application in Hearing-Device Research</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>527-40</RefPage>
        <RefTotal>Wolters F, Smeds K, Schmidt E, Christensen EK, Norup C. Common Sound Scenarios: A Context-Driven Categorization of Everyday Sound Environments for Application in Hearing-Device Research. J Am Acad Audiol. 2016 Jul;27(7):527-40. DOI: 10.3766&#47;jaaa.15105</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.15105</RefLink>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Groth J</RefAuthor>
        <RefAuthor>Dyrlund O</RefAuthor>
        <RefAuthor>Wagener KC</RefAuthor>
        <RefAuthor>Meis M</RefAuthor>
        <RefAuthor>Krueger M</RefAuthor>
        <RefTitle>Fine-Tuning Outcomes are Similar via Teleaudiology and Face-to-Face</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Canadian Audiologist</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Groth J, Dyrlund O, Wagener KC, Meis M, Krueger M. Fine-Tuning Outcomes are Similar via Teleaudiology and Face-to-Face. Canadian Audiologist. 2019;6(2). Available from: http:&#47;&#47;www.canadianaudiologist.ca&#47;gn-resound-industry-research-6-2-feature&#47;</RefTotal>
        <RefLink>http:&#47;&#47;www.canadianaudiologist.ca&#47;gn-resound-industry-research-6-2-feature&#47;</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Anonym</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2021</RefYear>
        <RefBookTitle>DIN EN 62366-1:2021-08: Medizinprodukte &#8211; Teil 1: Anwendung der Gebrauchstauglichkeit auf Medizinprodukte (IEC 62366-1:2015 &#43; COR1:2016 &#43; A1:2020); Deutsche Fassung EN 62366-1:2015 &#43; AC:2015 &#43; A1:2020</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>DIN EN 62366-1:2021-08: Medizinprodukte &#8211; Teil 1: Anwendung der Gebrauchstauglichkeit auf Medizinprodukte (IEC 62366-1:2015 &#43; COR1:2016 &#43; A1:2020); Deutsche Fassung EN 62366-1:2015 &#43; AC:2015 &#43; A1:2020.  &#91;Medical devices &#8211; Part 1: Application of usability engineering to medical devices (IEC 62366-1:2015 &#43; COR1:2016 &#43; A1:2020); German version EN 62366-1:2015 &#43; AC:2015 &#43; A1:2020&#93;. Berlin: Beuth; 2021 &#91;accessed 2024 Feb 16&#93;. Available from: https:&#47;&#47;www.beuth.de&#47;de</RefTotal>
        <RefLink>https:&#47;&#47;www.beuth.de&#47;de</RefLink>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Schleier B</RefAuthor>
        <RefAuthor>Holguera C</RefAuthor>
        <RefAuthor>Mueller B</RefAuthor>
        <RefAuthor>Willemsen J</RefAuthor>
        <RefAuthor>Beckers J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2023</RefYear>
        <RefBookTitle>MASVS Mobile Application Security Verification Standard. v2.0.0</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Schleier B, Holguera C, Mueller B, Willemsen J, Beckers J. MASVS Mobile Application Security Verification Standard. v2.0.0. The OWASP Foundation; 2023 Apr 1 &#91;accessed 2024 Feb 16&#93;. Available from: https:&#47;&#47;mas.owasp.org&#47;MASVS</RefTotal>
        <RefLink>https:&#47;&#47;mas.owasp.org&#47;MASVS</RefLink>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Kropp MH</RefAuthor>
        <RefAuthor>Hocke T</RefAuthor>
        <RefAuthor>Agha-Mir-Salim P</RefAuthor>
        <RefAuthor>M&#252;ller A</RefAuthor>
        <RefTitle>Evaluation of a synthetic version of the digits-in-noise test and its characteristics in CI recipients</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>507-13</RefPage>
        <RefTotal>Kropp MH, Hocke T, Agha-Mir-Salim P, M&#252;ller A. Evaluation of a synthetic version of the digits-in-noise test and its characteristics in CI recipients. Int J Audiol. 2021 Jul;60(7):507-13. DOI: 10.1080&#47;14992027.2020.1839678</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;14992027.2020.1839678</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Klassifizierungsschema der H&#246;rsituationen in Anlehnung an Wolters et al. &#91;27&#93;</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 1: Classification scheme of listening situations based on Wolters et al &#91;27&#93;</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>1</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="494" width="900">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Eingangsbildschirm und exemplarische Graphical User Interfaces (GUI) von HearDL; Erl&#228;uterung in den nachfolgenden Kapiteln. A: &#220;bersicht &#252;ber die Aufgaben; B: GUI von ACALES mobile; C: GUI der EMA, Definition der Situation; D: GUI des Fragebogens, Beispiel SSQ</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Input screen and exemplary Graphical User Interfaces (GUI) of HearDL; explanation in the following chapters. A: Overview of the tasks; B: GUI from ACALES mobile; C: GUI of the EMA, Definition of the situation; D: GUI of the questionnaire, example SSQ</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="496" width="900">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Exemplarische GUI-L&#246;sungen f&#252;r die EMA-Anwendungen. A: EMA-GUI, &#8222;Mood Scale&#8220;, Skala A Tab. 1; B: EMA-GUI Partizipation, Skala F Tab. 1; C: EMA-GUI, Klarheit der Sprache, Skala C Tab. 1; D: EMA-GUI, Terminerinnerung</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Exemplary GUI solutions for the EMA applications. A: EMA-GUI, &#8222;Mood Scale&#8221;, Scale A Tab. 1,  B: EMA-GUI Participation, Scale F Tab. 1, C: EMA-GUI, Clarity of speech, scale C Tab. 1, D: EMA-GUI, appointment reminder</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>2</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>