<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zaud000029</Identifier>
    <IdentifierDoi>10.3205/zaud000029</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zaud0000298</IdentifierUrn>
    <ArticleType language="de">Originalarbeit</ArticleType>
    <ArticleType language="en">Research Article</ArticleType>
    <TitleGroup>
      <Title language="de">Vorteile des direkten akustischen Streamens beim Telefonieren bimodal versorgter H&#246;rsystemnutzer</Title>
      <TitleTranslated language="en">Advantages of direct acoustic streaming during telephone calls of bimodal hearing instrument users</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Zokoll</Lastname>
          <LastnameHeading>Zokoll</LastnameHeading>
          <Firstname>Melanie A.</Firstname>
          <Initials>MA</Initials>
        </PersonNames>
        <Address language="de">H&#246;rzentrum Oldenburg gGmbH, Marie-Curie-Str. 2, 26129 Oldenburg, Deutschland, Tel.: &#43;49 441 2172-164, Fax: &#43;49 441 2172-150<Affiliation>H&#246;rzentrum Oldenburg gGmbH, Oldenburg, Deutschland</Affiliation><Affiliation>Exzellenzcluster &#8222;Hearing4All&#8220;, Oldenburg, Deutschland</Affiliation></Address>
        <Address language="en">H&#246;rzentrum Oldenburg gGmbH, Marie-Curie-Str. 2, 26129 Oldenburg, Germany, Phone: &#43;49 441 2172-164, Fax: &#43;49 441 2172-150<Affiliation>H&#246;rzentrum Oldenburg gGmbH, Oldenburg, Germany</Affiliation></Address>
        <Email>zokoll&#64;hz-ol.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Meis</Lastname>
          <LastnameHeading>Meis</LastnameHeading>
          <Firstname>Markus</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Wagener</Lastname>
          <LastnameHeading>Wagener</LastnameHeading>
          <Firstname>Kirsten C.</Firstname>
          <Initials>KC</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>H&#246;rzentrum Oldenburg gGmbH, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Exzellenzcluster &#8222;Hearing4All&#8220;, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>H&#246;rzentrum Oldenburg gGmbH, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Grober</Lastname>
          <LastnameHeading>Grober</LastnameHeading>
          <Firstname>Silke</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Exzellenzcluster &#8222;Hearing4All&#8220;, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Germany</Affiliation>
          <Affiliation>Exzellenzcluster &#8222;Hearing4All&#8220;, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Radeloff</Lastname>
          <LastnameHeading>Radeloff</LastnameHeading>
          <Firstname>Andreas</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Exzellenzcluster &#8222;Hearing4All&#8220;, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Forschungszentrum Neurosensorik, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Germany</Affiliation>
          <Affiliation>Exzellenzcluster &#8222;Hearing4All&#8220;, Oldenburg, Germany</Affiliation>
          <Affiliation>Forschungszentrum Neurosensorik, Oldenburg, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hessel</Lastname>
          <LastnameHeading>Hessel</LastnameHeading>
          <Firstname>Horst</Firstname>
          <Initials>H</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Germany</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">cochlear implant</Keyword>
      <Keyword language="en">MFi</Keyword>
      <Keyword language="en">streaming</Keyword>
      <Keyword language="en">telephoning with CI</Keyword>
      <Keyword language="de">Cochlea-Implantat</Keyword>
      <Keyword language="de">MFi</Keyword>
      <Keyword language="de">Streamen</Keyword>
      <Keyword language="de">Telefonieren mit CI</Keyword>
    </SubjectGroup>
    <DatePublishedList>
      
    <DatePublished>20230131</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2628-9083</ISSN>
        <Volume>5</Volume>
        <JournalTitle>GMS Zeitschrift f&#252;r Audiologie - Audiological Acoustics</JournalTitle>
        <JournalTitleAbbr>GMS Z Audiol (Audiol Acoust)</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>03</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>In der vorliegenden Studie wurde untersucht, ob das direkte bilaterale Streamen in Cochlea-Implantat (CI) und H&#246;rger&#228;t (HG) bimodalen H&#246;rsystemnutzern einen Vorteil beim Telefonieren mit dem Smartphone im Vergleich zu bisher genutzten Verfahren bringt. </Pgraph><Pgraph>In zwei Labortests wurden 22 erfahrene CI-Tr&#228;ger (Durchschnittsalter 50,8&#177;18,6 Jahre), die bimodal mit einem N7 Prozessor der Firma Cochlear sowie einem GN ReSound H&#246;rger&#228;t versorgt waren, mit ihrer eigenen bisher genutzten, meist unilateralen Telefonnutzung (Referenz-Kondition) sowie mit MFi-Technologie (Test-Kondition) getestet. In der Test-Kondition wurde direkt von einem Smartphone auf beide H&#246;rsysteme gestreamt. Als wesentliche Messgr&#246;&#223;en des Benefits wurden die Sprachverst&#228;ndlichkeit, die subjektiv empfundene H&#246;ranstrengung, jeweils im St&#246;rger&#228;usch, und subjektive Bewertungen (u.a. zu Klang, Gebrauchstauglichkeit &#252;ber System Usability Scale, SUS) erfasst. </Pgraph><Pgraph>Die Ergebnisse ergaben eine tendenziell verbesserte Sprachverst&#228;ndlichkeit, sowie eine signifikant geringere H&#246;ranstrengung bei beidseitigem St<TextGroup><PlainText>rea</PlainText></TextGroup>min<TextGroup><PlainText>g i</PlainText></TextGroup>m Vergleich zur herk&#246;mmlichen Telefonnutzung in sowohl den Mess-, als auch den Fragebogendaten. Im Hinblick auf Gebrauchstauglichkeit f&#252;hrte das beidseitige Streaming, verglichen mit der Referenz, ebenfalls zu besseren Bewertungen.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>The present study investigated whether direct bilateral streaming on cochlea implant (CI) and hearing aid provides bimodal hearing instrument users with an advantage when making phone calls via smartphone compared with previously used methods.</Pgraph><Pgraph>In two laboratory tests, 22 experienced CI listeners (mean age 50.8&#177;18.6 years), fitted bimodally with a Cochlear N7 processor, as well as a GN ReSound hearing aid, were tested with their own previously used, mostly unilateral phone use (reference condition) and with MFi technology (test condition). In the test condition, signals were directly streamed from a smartphone to both hearing instruments. Speech intelligibility, subjectively perceived listening effort, each in interfering noise, and subjective ratings (including sound, usability via System Usability Scale, SUS) were obtained as key measures of benefit. </Pgraph><Pgraph>The results showed a trend towards improved speech intelligibility, as well as a significantly lower listening effort with bilateral streaming compared to conventional telephone use in both the measurement and the questionnaire data. In terms of usability, bilateral streaming also resulted in better ratings compared to the reference.  </Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Das Telefonieren ist f&#252;r Menschen mit starkem H&#246;rverlust eine gro&#223;e Herausforderung. Zum einen fehlen visuelle Hinweise (Lippenbewegungen, Gestik, Mimik), die &#252;ber Beobachtung der Sprecher gewonnen werden k&#246;nnen, zum anderen sind die Stimmen oft unbekannt und somit schlechter verst&#228;ndlich als bekannte Stimmen <TextLink reference="12"></TextLink>, <TextLink reference="18"></TextLink>. Zudem k&#246;nnen die &#252;bertragenen Sprachsignale in ihrer Qualit&#228;t beeintr&#228;chtigt sein. Bei analogen Telefonen sind sie z.B. in ihrer Bandbreite begrenzt <TextGroup><PlainText>(300&#8211;3.400 Hz)</PlainText></TextGroup>. Zus&#228;tzlich st&#246;ren, vor allem bei der Mobiltelefonie, nicht selten Nebenger&#228;usche auf Seiten des Anrufers oder Angerufenen das Gespr&#228;ch. In letzter Konsequenz verzichten viele Menschen mit zunehmendem H&#246;rverlust ganz auf das Telefonieren oder telefonieren nur mit Hilfe anderer. Die Einschr&#228;nkungen der Kommunikation kann die Lebensqualit&#228;t erheblich beeintr&#228;chtigen und gerade auch bei Senioren, die allein leben, zur sozialen Isolation f&#252;hren. Eine Cochlea-Implantation bei postlingual ertaubten Erwachsenen ist indiziert, &#8222;wenn mit Cochlea-Implantaten (CI) ein besseres H&#246;ren und Sprachverstehen als mit H&#246;rger&#228;ten (HG) absehbar zu erreichen sein wird&#8220; <TextLink reference="10"></TextLink>. Die ausreichende Wiederherstellung der Kommunikationsf&#228;higkeit schlie&#223;t dabei auch die M&#246;glichkeit zu Telefonieren mit ein <TextLink reference="24"></TextLink>. Letzteres ist laut Lenarz <TextLink reference="24"></TextLink> erst mit einem (Einsilb<TextGroup><PlainText>er-)S</PlainText></TextGroup>prachverstehen von &#62;50&#37; bei einem Signalpegel von 65 dB m&#246;glich.</Pgraph><Pgraph>Studien haben gezeigt, dass CI-Nutzer nach ihrer Implantation dank der technologischen Weiterentwicklung der Systeme h&#228;ufig wieder ein offenes Sprachverstehen einschlie&#223;lich der Nutzung des Telefons erreichen <TextLink reference="24"></TextLink> und auch wieder h&#228;ufiger zum Telefonh&#246;rer oder Smartphone greifen <TextLink reference="2"></TextLink>. Clinkard et al. <TextLink reference="8"></TextLink> stellten fest, dass der Telefongebrauch unter CI-Patienten im Vergleich zu fr&#252;heren Studien zunimmt. In einer Studie von Sousa et al. <TextLink reference="32"></TextLink> wurde das Telefon-Sprachverstehen mit der Lebensqualit&#228;t assoziiert. Patienten, die &#252;ber eine erfolgreiche Nutzung des Telefons berichteten, zeigten im Durchschnitt h&#246;here Punktzahlen in den psychologischen, sozialen und globalen Bereichen eines der genutzten Lebensqualit&#228;tsfrageb&#246;gen (Nijmegen Cochlear Implant questionnaire, NCIQ-P). Granberg et al. <TextLink reference="15"></TextLink> sehen in der erfolgreichen Nutzung von Telefonie eine wesentliche Voraussetzung zur Partizipationsf&#228;higkeit gem&#228;&#223; der Internationalen Klassifikation der Funktionsf&#228;higkeit, Behinderung und Gesundheit (ICF). </Pgraph><Pgraph>Es gibt verschiedene etablierte M&#246;glichkeiten, mit CIs zu telefonieren. Ein seit Langem verwendetes Verfahren ist das Telefonieren mit einer Telefonspule. Weniger Technik-affine CI-Tr&#228;ger nutzen auch den Telefonlautsprecher, der dann meist auf das Mikrofon an einem der Audioprozessoren ausgerichtet ist. Eine modernere M&#246;glichkeit ist das Telefonieren mit einem Bluetooth-Hilfsger&#228;t, bei dem die Audiosignale vom Mobiltelefon mit Bluetooth zum Hilfsger&#228;t und dann mit Bluetooth Low Energy (BLE) oder einer anderen 2.4 GHz-Funktechnologie weiter zum Signalprozessor &#252;bertragen werden (z.B. Cochlear<Superscript>TM</Superscript> Wireless Telefonclip, MED-EL AudioLink). </Pgraph><Pgraph>Auch f&#252;r H&#246;rger&#228;te-Tr&#228;ger gibt es f&#252;r das Telefonieren vergleichbare M&#246;glichkeiten. Hierzu geh&#246;ren zum Beispiel Bluetooth-Hilfsger&#228;te, die mit einem Bluetooth-f&#228;higen Telefon verbunden werden und anschlie&#223;end per Induktionsschleife&#47;Antenne (um den Hals der H&#246;rger&#228;tetr&#228;ger) das Signal auf die H&#246;rsysteme &#252;bertragen (z.B. ComPilot von Phonak, uDirect 3 von Unitron oder Hansaton). Telefonclips (z.B. GNReSound Unite&#8482; Telefonclip, Oticon ConnectClip) erm&#246;glichen ein drahtloses Telefonieren, via Bluetooth-&#220;bertragung zwischen Bluetooth-f&#228;higem Smartphone und Telefonclip, sowie 2.4 GHz-Funktechnologie zwischen Telefonclip und H&#246;rsystemen.</Pgraph><Pgraph>Neu hinzugekommen ist die Bluetooth-&#220;bertragung ohne Bluetooth-Hilfsger&#228;t, bei der die Audiosignale &#252;ber Bluetooth Classic (z.B. bei Phonak, Advanced Bionics) oder BLE direkt in den Signalprozessor &#252;bertragen werden k&#246;nnen. Letzteres funktioniert zum Beispiel f&#252;r Apple-Ger&#228;te (Apple Bluetooth Low Energy, ABLE) wie das iPhone, oder neuere Android Mobiltelefone. </Pgraph><Pgraph>Das (direkte) Streaming des Telefonsignals kann das Telefonieren f&#252;r CI-Tr&#228;ger im Vergleich zu Telefonspulen- oder akustischer Kopplungskonfiguration verbessern <TextLink reference="25"></TextLink>, <TextLink reference="38"></TextLink>. Dies wurde auch f&#252;r H&#246;rger&#228;tetr&#228;ger gezeigt <TextLink reference="30"></TextLink>. Die Ger&#228;usche in der Umgebung des H&#246;rsystemtr&#228;gers (aufgenommen &#252;ber die H&#246;rsystemmikrofone) werden beim Streaming meist in einem geringen Verh&#228;ltnis mit dem gestreamten Signal gemischt. Picou und Ricketts <TextLink reference="30"></TextLink> hatten die Mikrofone der H&#246;rger&#228;te f&#252;r die Streaming-Kondition sogar ausgeschaltet, um Umgebungsger&#228;usche auszuschlie&#223;en, die den Vorteil der Streaming-Technik korrumpieren k&#246;nnten (e.g., <TextLink reference="29"></TextLink>). Der Default bei CI-Nutzern ist ein Mischungsverh&#228;ltnis zwischen Streaming-Signal und akustischem Input, das den CI-Tr&#228;gern erlaubt, auch weiterhin mitzubekommen, was um sie herum passiert (z.B. Verh&#228;ltnis 2:1 <TextLink reference="36"></TextLink>). </Pgraph><Pgraph>Bimodale Patienten, die ein CI und kontralateral ein HG nutzen, stehen beim Telefonieren vor sehr &#228;hnlichen, zum Teil noch gr&#246;&#223;eren Problemen, da hier zwei unterschiedliche, unter Umst&#228;nden nicht kompatible Systeme gleichzeitig verwendet werden. In den letzten Jahren bildeten sich Kooperationen zwischen CI- und HG-Herstellern, wodurch sich die M&#246;glichkeiten der Interaktionen beider Systeme verbesserten. </Pgraph><Pgraph>Am H&#246;rzentrum Oldenburg wurde in Zusammenarbeit mit der Universit&#228;ts-HNO-Klinik Oldenburg untersucht, inwiefern bilaterales Streamen bimodal versorgten Patienten im Vergleich zu Standard-Methoden des Telefonierens (Referenz) in Bezug auf den audiologischen Nutzen (Sprachverst&#228;ndlichkeit und H&#246;ranstrengung), Klangqualit&#228;t, und Benutzerfreundlichkeit eine Verbesserung bringt. Hierbei wurde ein besonderes Augenmerk auf den Einfluss der Kopplung und der (unterschiedlichen) Wege von Telefonsignal und Umgebungsger&#228;uschen gelegt. F&#252;r die Streaming-Bedingung wurden zwei Streaming-f&#228;hige H&#246;rsysteme, der Nucleus<Superscript>&#174;</Superscript> 7 Soundprozessor von Cochlear, sowie das LiNX 3D von GN ReSound verwendet, die bimodal versorgten Patienten ein bilaterales Streamen ins CI und HG erm&#246;glichen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>Making telephone calls is a great challenge for people with severe hearing loss. On the one hand, there are no visual cues (lip movements, gestures, facial expressions) that can be obtained by observing the speaker, and on the other hand, the voices are often unfamiliar and thus more difficult to understand than familiar voices <TextLink reference="12"></TextLink>, <TextLink reference="18"></TextLink>. In addition, the quality of the transmitted speech signals can be affected. Analogue telephones, for example, are limited in their bandwidth (300&#8211;3,400 Hz). In addition, especially with mobile telephony, it is not uncommon for background noise on the part of the caller or called party to interfere with the conversation. As a consequence, many people with increasing hearing loss do not use the telephone at all, or only use the telephone with the help of others. The restrictions on communication can considerably impair the quality of life and lead to social isolation, especially for seniors who live alone. Cochlear implantation in postlingually deafened adults is indicated &#8220;when cochlear implants (CI) are likely to provide better hearing and speech understanding than hearing aids&#8221; <TextLink reference="10"></TextLink>. Sufficient restoration of the ability to communicate also includes the ability to make telephone calls <TextLink reference="24"></TextLink>. According to Lenarz <TextLink reference="24"></TextLink>, the latter is only possible with a (monosyllabic) speech understanding of &#62;50&#37; at a signal level of 65 dB.</Pgraph><Pgraph>Studies have shown that, thanks to the technological development of the systems, CI users often regain open speech understanding after their implantation, including the use of the telephone <TextLink reference="24"></TextLink>, and also reach for the telephone receiver or smartphone more frequently again <TextLink reference="2"></TextLink>. Clinkard et al. <TextLink reference="8"></TextLink> found that telephone use among CI patients is increasing compared to previous studies. In a study by Sousa et al. <TextLink reference="32"></TextLink>, telephone speech understanding was associated with quality of life. Patients who reported successful telephone use showed higher average scores in the psychological, social and global domains of one of the quality-of-life questionnaires used (Nijmegen Cochlear Implant questionnaire, NCIQ-P). Granberg et al. <TextLink reference="15"></TextLink> see the successful use of telephony as an essential prerequisite for the ability to participate according to the International Classification of Functioning, Disability and Health (ICF). </Pgraph><Pgraph>There are several established ways to make phone calls with CIs. One method that has been used for a long time is telephoning with a telecoil. Less technology-savvy CI users also use the telephone loudspeaker, which is then usually aligned with the microphone on one of the audio processors. A more modern option is to use a Bluetooth assistive device to make phone calls, where the audio signals are transmitted from the mobile phone to the assistive device using Bluetooth and then on to the signal processor using Bluetooth Low Energy (BLE) or other 2.<TextGroup><PlainText>4 GHz</PlainText></TextGroup> wireless technology (e.g., CochlearTM Wireless Phone Clip, MED-EL AudioLink). </Pgraph><Pgraph>Hearing aid users also have comparable options for making phone calls. For example, Bluetooth assistive devices that connect to a Bluetooth-enabled phone and then transmit the signal to the hearing instruments via an induction loop&#47;antenna (around the neck of the hearing aid wearer) (e.g., ComPilot from Phonak, uDirect 3 from Unitron or Hansaton). Telephone clips (e.g., GNReSound Unite<Superscript>&#8482;</Superscript> telephone clip, Oticon ConnectClip) enable wireless telephoning via Bluetooth transmission between Bluetooth-enabled smartphone and telephone clip, as well as 2.4 GHz wireless technology between telephone clip and hearing instruments.</Pgraph><Pgraph>A new addition is Bluetooth transmission without a Bluetooth auxiliary device, where the audio signals can be transmitted via Bluetooth Classic (e.g., with Phonak, Advanced Bionics) or BLE directly into the signal processor. The latter works, for example, for Apple devices (Apple Bluetooth Low Energy, ABLE) such as the iPhone, or newer Android mobile phones. </Pgraph><Pgraph>Streaming the phone signal (directly) can improve phone use for CI users compared to telecoil or acoustic coupling configurations <TextLink reference="25"></TextLink>, <TextLink reference="38"></TextLink>. This has also been shown for hearing aid users <TextLink reference="30"></TextLink>. The sounds in the hearing aid wearer&#39;s environment (picked up by the hearing aid microphones) are usually mixed in a low ratio with the streamed signal when streaming. Picou and Ricketts <TextLink reference="30"></TextLink> had even turned off the hearing aid microphones for the streaming condition to exclude ambient noise that could corrupt the advantage of streaming (e.g., <TextLink reference="39"></TextLink>). The default for CI users is a mixing ratio between streaming signal and acoustic input that allows CI users to continue to hear what is going on around them (e.g., 2:1 ratio <TextLink reference="36"></TextLink>). </Pgraph><Pgraph>Bimodal patients who use a CI and a hearing aid contralaterally face very similar, sometimes even greater, problems when using the telephone, as two different, possibly incompatible systems are used at the same time. In recent years, cooperation between CI and HG manufacturers has been established, which has improved the possibilities for interaction between the two systems. </Pgraph><Pgraph>At the H&#246;rzentrum Oldenburg, in cooperation with the University ENT Clinic Oldenburg, it was investigated to what extent bilateral streaming brings an improvement to bimodally fitted patients compared to standard methods of telephoning (reference) in terms of audiological benefit (speech intelligibility and listening effort), sound quality, and user-friendliness. Special attention was paid to the influence of the coupling and the (different) paths of telephone signal and ambient noise. For the streaming condition, two streaming-capable hearing instruments were used, the Nucleus<Superscript>&#174;</Superscript> 7 sound processor from Cochlear, and the LiNX 3D from GN ReSound, which allow bimodal patients to stream bilaterally to the CI and hearing aid.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Material und Methoden">
      <MainHeadline>Material und Methoden</MainHeadline><SubHeadline>Teilnehmer</SubHeadline><Pgraph>Die Teilnehmenden wurden an der Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohren-Heilkunde Oldenburg rekrutiert. Insgesamt nahmen 22 Erwachsene (Durchschnittsalter 50,8&#177;18,6 Jahre, 9 weiblich, 13 m&#228;nnlich) an dieser Studie teil. Alle Teilnehmenden waren bimodal versorgt, d.h. sie waren mit Cochlea-Implantat auf der einen und mit H&#246;rger&#228;t auf der gegen&#252;berliegenden Seite versorgt. Eine Person trug ihr H&#246;rger&#228;t nicht regelm&#228;&#223;ig. Vor Eintritt in die Studie verwendeten die Teilnehmenden &#252;berwiegend den Cochlear Nucleus<Superscript>&#174;</Superscript> 6 Sound Prozessor (N&#61;16), einige den Nucleus<Superscript>&#174;</Superscript> 5 (N&#61;5), oder Nucleus<Superscript>&#174;</Superscript> 7 (N&#61;1). In der Studie bekamen die Teilnehmenden ausnahmslos den Cochlear Nucleus<Superscript>&#174;</Superscript> 7 Sound Prozessor. Weitere Einschlusskriterien waren eine CI-Nutzungsdauer von mindestens zwei Jahren, Deutsch als Muttersprache, fehlende kognitive Einschr&#228;nkungen und ein Sprachverstehen in Ruhe von &#252;ber 50&#37; f&#252;r den Oldenburger Satztest bei 65 dB SPL (OLSA, <TextLink reference="34"></TextLink>). Das letztgenannte Kriterium wurde f&#252;r den Schwerpunkt Telefonieren angelehnt an Lenarz <TextLink reference="24"></TextLink> gew&#228;hlt.</Pgraph><SubHeadline>Prozedur und Aufbau</SubHeadline><Pgraph>Ein detaillierter Messplan ist in Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> zu sehen. Die Studie wurde in zwei Terminen (T1 und T2) organisiert. Au&#223;er einem zur Verf&#252;gung gestellten Test-Smartphone (Apple iPhone 7) wurde am ersten Termin (T1, Referenz) das Telefonieren nur mit dem Equipment untersucht, welches die Teilnehmenden normalerweise im Alltag nutzen. Obwohl die H&#246;rsysteme grunds&#228;tzlich auch mit Android-Smartphones genutzt werden k&#246;nnen, wurde hier angesichts einer besseren Kontrolle &#252;ber den Einfluss des Smartphones auf die Messungen nur ein System verwendet. Die Teilnehmenden f&#252;llten Frageb&#246;gen zu ihren H&#246;rsystemen und dem entsprechenden Zubeh&#246;r (Q1) sowie zur Referenztelefonie aus (Q2, siehe auch Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>). Basierend auf dieser Erhebung des momentanen Status der Telefonie der Teilnehmenden wurde die Referenz individuell festgelegt. Am zweiten Untersuchungstermin (T2, Streaming) wurden die Teilnehmenden mit den Studien-H&#246;rsystemen, GN ReSound LiNX 3D LT962-DRW oder LT988-DW und Cochlear N7-Prozessor getestet. Hierzu wurden diese Studienger&#228;te zun&#228;chst individuell angepasst. Anschlie&#223;end koppelten die Teilnehmenden ihre Ger&#228;te mit dem Test-Smartphone, mit dem anschlie&#223;end telefoniert wurde. </Pgraph><Pgraph>In beiden Terminen wurden die Teilnehmenden vom Versuchsleiter (VL) angerufen und stellten den Schallpegel des Smartphones so ein, dass ein angenehmer Lautheitseindruck entstand. Dann bewerteten sie die Einstellung des Telefongespr&#228;chs mit dem Versuchsleiter unter Laborbedingungen im Hinblick auf die Akzeptanz (Q3, z.B. Sprachverst&#228;ndlichkeit, H&#246;ranstrengung, Klangqualit&#228;t und Lautheit). </Pgraph><Pgraph>Beim zweiten Termin erfolgte zun&#228;chst eine Eingew&#246;hnungsphase, die einen Spaziergang mit Telefongespr&#228;chen au&#223;erhalb des Labors beinhaltete. Die H&#246;rsituationen umfassten eine ruhige Situation im Garten des H&#246;rzentrums Oldenburg, eine belebte Stra&#223;enkreuzung und ein Restaurant. Gespr&#228;chspartner war entweder der Versuchsleiter, ein Mitarbeiter des H&#246;rzentrums Oldenburg oder jemand aus dem Umfeld der teilnehmenden Person. Im Anschluss mussten die Teilnehmenden Frageb&#246;gen zur Benutzerfreundlichkeit (System Usability Scale, SUS <TextLink reference="7"></TextLink>; Q5), auch im Vergleich zur Referenz (Q6; SUS&#95;comp) beantworten. Die System Usability Scale ist ein generisches Verfahren zur Bewertung der Gebrauchstauglichkeit mit 10 Items von 0 bis 4, und einer Multiplikation der teilweise invertierten Werte mit dem Faktor 2.5, so dass eine Range von 0 bis 100 Punkten resultiert. Dieser so ermittelte Summenwert kann dann mit anderen Studien in Beziehung gesetzt werden. </Pgraph><Pgraph>Dann absolvierten die Teilnehmenden in beiden Terminen in einem ruhigen Innenraum eine Telefonh&#246;raufgabe, in der eine weibliche Stimme einen Text aus &#8222;Nils Holgersson&#8220; vorlas (H&#246;rbuch-Kondition). Nachdem die Teilnehmenden Gelegenheit hatten, die Lautst&#228;rke des Test-Smartphones erneut anzupassen, h&#246;rten sie sich diesen Monolog an und bewerteten die Telefonie mit dieser Sprecherin (Q4, analog zu Q3). Dann folgten bei gleicher Smartphone-Lautst&#228;rkeeinstellung audiologische Tests zu Sprachverstehen und H&#246;ranstrengung in randomisierter Reihenfolge. Telefon-Sprachverst&#228;ndlichkeitsschwellen (SVS) im St&#246;rger&#228;usch wurden in einem schallged&#228;mpften Raum mit der weiblichen Version des Oldenburger Satztests (OLSAf, <TextLink reference="1"></TextLink>, <TextLink reference="35"></TextLink>) im offenen Antwortformat gemessen. Das Sprachsignal wurde dabei &#252;ber das Test-Smartphone pr&#228;sentiert. Hierzu wurde das Test-Smartphone von einem Telefon (Siemens OpenStage 15) angerufen, das an einen PC angeschlossen war, auf dem die Oldenburger Messprogramme (H&#246;rzentrum gGmbH, Oldenburg) verwendet wurden. Das St&#246;rger&#228;usch (Olnoisef, <TextLink reference="35"></TextLink>) wurde &#252;ber einen Lautsprecher (Mackie HR824) aus 0&#176; in einem Abstand von 1,3 m dargeboten. Der St&#246;rschall wurde somit nur empf&#228;nger- und nicht senderseitig dargeboten. M&#246;gliche Effekte der senderseitigen &#220;bertragungsstrecke auf das Signal und den Signal-Rausch-Abstand wurden nicht untersucht. Das Sprachsignal des OLSAf hatte den gleichen RMS-Pegel und auch die gleiche Sprecherin, wie das Nils Holgersson-H&#246;rspiel, mit dem der Pegel des Test-Smartphones auf einen individuell angenehmen Pegel eingestellt wurde (siehe oben). Das der Testperson direkt dargebotene St&#246;rger&#228;usch wurde auf 65 dB SPL kalibriert. Weil der absolute Darbietungspegel des gestreamten Sprachsignals von jeder Testperson einmal individuell eingestellt wurde und keine Kenntnis &#252;ber diesen absoluten Darbietungspegel via CI und somit auch nicht &#252;ber den aus CI und HG kombinierten Darbietungspegel des gestreamten Sprachsignals vorliegt, wird im Folgenden die Bezeichnung i-SNR (individueller SNR) verwendet f&#252;r den Signal-Rausch-Abstand vom individuell eingestellten Sprachdarbietungspegel zum direkt dargebotenen St&#246;rger&#228;usch. Ein i-SNR von <TextGroup><PlainText>0 dB</PlainText></TextGroup> bedeutet dabei, dass das in ruhiger Umgebung als angenehm laut eingestellte Sprachsignal in dem direkt dargebotenen St&#246;rger&#228;usch (Darbietungspegel <TextGroup><PlainText>65 dB SPL</PlainText></TextGroup>) dargeboten wird. Zus&#228;tzlich zu dem f&#252;r den OLSA empfohlenen anf&#228;nglichen Training von zwei Testlisten mit je 20 S&#228;tzen und um absch&#228;tzen zu k&#246;nnen, ob die von den Teilnehmenden in den beiden Terminen gew&#228;hlten Sprachpegel &#228;quivalent sind, wurde vor der Pr&#252;fung im St&#246;rl&#228;rm die Sprachverst&#228;ndlichkeitsschwelle in Ruhe ermittelt (eine Testliste, Verfahren A1 nach <TextLink reference="6"></TextLink>). Anschlie&#223;end erfolgte die eigentliche SVS-Messung im St&#246;rger&#228;usch mit einer Testliste und zus&#228;tzlich einer erweiterten Liste mit 30 S&#228;tzen. Mit der l&#228;ngeren Testliste wurde zus&#228;tzlich zur Sprachverst&#228;ndlichkeitsschwelle auch die Steigung der Sprachverst&#228;ndlichkeitskurve ermittelt (Verfahren A2 nach <TextLink reference="6"></TextLink>).</Pgraph><Pgraph>Um die Bewertungen der H&#246;ranstrengung f&#252;r das Telefonieren zu erhalten, wurde im gleichen Versuchs-Setup die Methode der adaptiven kategorialen H&#246;ranstrengungsskalierung (ACALES, <TextLink reference="22"></TextLink>) mit Sprach- und St&#246;rger&#228;uschsignalen des OLSAf verwendet. Das Messverfahren <TextGroup><PlainText>ACALES</PlainText></TextGroup> erm&#246;glicht es die mentale &#8218;H&#246;rlast&#8216; oder den H&#246;raufwand zu messen, den eine Person aufwenden muss, um Sprache im St&#246;rger&#228;usch zu verstehen. Es enth&#228;lt eine kurze Trainingsphase und die anschlie&#223;ende Testliste bei unterschiedlichen Signal-Rausch-Abst&#228;nden (die einzelnen S&#228;tze werden hierbei jeweils dreimal pr&#228;sentiert, w&#228;hrend die Eingabe bereits nach der ersten Pr&#228;sentation erfolgen kann). Die Aufgabe der Teilnehmenden ist es, die jeweils pr&#228;sentierten S&#228;tze bez&#252;glich ihrer H&#246;ranstrengung anhand einer 13-stufigen, kategorialen Bewertungsskala mit sieben beschrifteten Kategorien von &#8222;m&#252;helos&#8220; bis &#8222;extrem anstrengend&#8220; (effort scale categorical units, ESCU, von 1&#8211;13) mit einer zus&#228;tzlichen Kategorie &#8222;nur St&#246;rger&#228;usch&#8220;, zu bewerten. Die entsprechende Frage lautete &#8222;Wie anstrengend ist es f&#252;r Sie, dem Sprecher zu folgen&#63;&#8221;. Die Antwort erfolgt hierbei &#252;ber einen Touchscreen. Das Verfahren ist adaptiv im Sinne einer automatischen individuellen Berechnung der zu testenden SNR-Variationen, die durch die Ver&#228;nderung des Sprachpegels erzeugt wird. Das Ergebnis der Messung ist eine individuelle H&#246;ranstrengungsfunktion, die den SNR-Bereich f&#252;r &#8222;m&#252;helos&#8220; bis &#8222;extrem anstrengend&#8220; umfasst (f&#252;r mehr Details zu dem Verfahren siehe <TextLink reference="22"></TextLink>). </Pgraph><SubHeadline>H&#246;rger&#228;te- und CI-Programmierung</SubHeadline><Pgraph>Im ersten Termin wurden die H&#246;rsysteme mit den von den Patienten im Alltag genutzten Programmen und Einstellungen verwendet. Die technische Funktionalit&#228;t der Systeme wurde vor der Versuchsdurchf&#252;hrung durch die Versuchsleiter gepr&#252;ft. F&#252;r die Programmierung der beiden Ger&#228;te zu Beginn des zweiten Termins wurden Standardprozeduren f&#252;r die Anpassung verwendet. Die H&#246;rger&#228;te von GN ReSound LiNX 3D LT962-DRW und LT988-DW wurden mit nur einem Programm (P1) angepasst. Dieses entsprach einem &#252;blichen Alltagsprogramm (All-Around). Die Anpassung folgte den von der Software von GN ReSound (ReSound SmartFit) vorgegebenen Vorschl&#228;gen mit den Eingangsparametern Audiogramm, und routinierte&#47;r H&#246;rger&#228;tetr&#228;ger&#47;In (an WDRC-Systeme gew&#246;hnt). Es erfolgte die Erstanpassung und gegebenenfalls eine Anhebung oder Absenkung der Gesamtverst&#228;rkung. Eine weitere Feinanpassung wurde nicht durchgef&#252;hrt. Die Auswahl der H&#246;rger&#228;te erfolgte nach H&#246;rverlust auf dem H&#246;rger&#228;te-versorgten Ohr der Teilnehmenden. Die Ankopplung wurde ebenfalls daran angepasst und folgte dabei den Empfehlungen der Anpass-Software. Durch eine klinische Ingenieurin wurde die zuletzt mit dem eigenen CI-Prozessor verwendete MAP (personalisierte Stimulationsparameter) mit Hilfe der dazugeh&#246;rigen Anpasssoftware von Cochlear (Nucleus<Superscript>&#174;</Superscript> Custom Sound Fitting Software) auf den Nucleus<Superscript>&#174;</Superscript> 7 Testprozessor &#252;bertragen. F&#252;r das Streaming wurde die Default-Einstellung genutzt. In dieser werden die gestreamten Signale vom Smartphone mit den Signalen der Mikrofone am Sprachprozessor in einem Mischungsverh&#228;ltnis von 2:1 dargeboten.</Pgraph><SubHeadline>Datenanalyse und Statistik</SubHeadline><Pgraph>Das ACALES-Verfahren passt automatisch eine Funktion mit zwei Steigungen an die individuellen H&#246;ranstrengungs-Bewertungen (effort scale categorical units, ESCUs) an, ohne die Bewertungskategorie &#8222;nur St&#246;rger&#228;usch&#8220; zu verwenden, wobei eine der Steigungen den Verlauf zwischen 1 und 7 ESU und die zweite den Verlauf zwischen 7 bis 13 ESCU beschreibt. Der Kreuzungspunkt zwischen den Kategorien 5 und 9 ESU wird dabei gegl&#228;ttet (Details <TextLink reference="22"></TextLink>). Die zugrundeliegenden SNR und dazugeh&#246;rigen ESCUs k&#246;nnen ausgelesen werden. Die mittleren Funktionen f&#252;r die H&#246;ranstrengung wurde abgeleitet, indem dieselbe Funktion mit zwei Steigungen an alle individuell gemessenen H&#246;ranstrengungsbewertungen f&#252;r die beiden Telefonie-Bedingungen angepasst wurde. </Pgraph><Pgraph>F&#252;r den Vergleich der Fragebogenantworten f&#252;r Referenz und Streaming-Bedingung wurde ein nichtparametrischer statistischer Test, der Wilcoxon-Vorzeichen-Rang-Test, herangezogen. Die audiologischen Daten wurden, nach vorheriger Verifikation der Normalverteilung (Shapiro-Wilk-Test, p&#62;0.05), mithilfe parametrischer Tests (gepaarter T-Test (einseitig), bzw. zweifaktorielle repeated measures (RM) ANOVA mit Bonferroni-Korrektur f&#252;r Mehrfachvergleiche) auf signifikante Unterschiede hin analysiert. Beim ACALES-Verfahren wurden die sieben benannten (d.h. beschrifteten) Bewertungskategorien von ESCU 1 &#8222;m&#252;helos&#8220; bis ESCU 13 &#8222;extrem anstrengend&#8220; ausgewertet (ESCU 1, 3, 5, 7, 9, 11 und 13) und auf signifikante Unterschiede zwischen den Konditionen hin analysiert.  </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Material and methods">
      <MainHeadline>Material and methods</MainHeadline><SubHeadline>Participants</SubHeadline><Pgraph>Participants were recruited at the University Department of Otorhinolaryngology Oldenburg. A total of 22 adults (mean age 50.8&#177;18.6 years, 9 female, 13 male) participated in this study. All participants were bimodal, i.e., they were fitted with a cochlear implant on one side and a hearing aid on the opposite side. One person did not wear their hearing aid on a regular basis. Prior to entering the study, participants were predominantly using the Cochlear Nucleus<Superscript>&#174;</Superscript> 6 sound processor (N&#61;16), with some using the Nucleus<Superscript>&#174;</Superscript> 5 (N&#61;5), or Nucleus<Superscript>&#174;</Superscript> 7 (N&#61;1). In the study, all participants received the Cochlear Nucleus<Superscript>&#174;</Superscript> 7 sound processor. Further inclusion criteria were a CI use duration of at least two years, German as native language, no cognitive impairment and a speech comprehension at rest of more than 50&#37; for the Oldenburg Sentence Test at 65 dB SPL (OLSA, <TextLink reference="34"></TextLink>). The latter criterion was chosen for the focus on telephoning based on Lenarz <TextLink reference="24"></TextLink>. </Pgraph><SubHeadline>Procedure and setup</SubHeadline><Pgraph>The test protocol can be seen in Figure 1 <ImgLink imgNo="1" imgType="figure"/>. The study was organized in two appointments (T1 and T2). Apart from a provided test smartphone (Apple iPhone 7), on the first appointment (T1, reference), phone use was only investigated with the equipment that the participants normally use in everyday life. Although the hearing instruments can in principle also be used with Android smartphones, only one system was used here to better control the influence of the smartphone on the measurements. The participants filled out questionnaires about their hearing systems and the corresponding accessories (Q1) as well as about reference telephony (Q2, see also Figure 1 <ImgLink imgNo="1" imgType="figure"/>). Based on this survey of the participants&#39; current telephony status, the reference was determined individually. On the second examination date (T2, streaming), the participants were tested with the study hearing systems, GN ReSound LiNX 3D LT962-DRW or LT988-DW and Cochlear N7 processor. For this purpose, the study devices were first fitted individually. The participants then paired their devices with the test smartphone, which was then used to make phone calls. </Pgraph><Pgraph>In both appointments, the participants were called by the test leader (TL) and adjusted the sound level of the smartphone to create a pleasant impression of loudness. Then they evaluated the setting of the telephone conversation with the TL under laboratory conditions with regard to acceptance (Q3, e.g., speech intelligibility, listening effort, sound quality and loudness). </Pgraph><Pgraph>At the second appointment, an initial familiarisation phase took place, which included a walk with telephone conversations outside the laboratory. The listening situations included a quiet situation in the garden of the H&#246;rzentrum Oldenburg, a busy street intersection and a restaurant. The interlocutor was either the test leader, a staff member of the H&#246;rzentrum Oldenburg or someone from the participant&#8217;s environment. Subsequently, the participants had to answer questionnaires on usability (System Usability Scale, SUS <TextLink reference="7"></TextLink>; Q5), also in comparison to the reference (Q6; SUS&#95;comp). The System Usability Scale is a generic procedure for assessing usability with 10 items from 0 to 4, and a multiplication of the partially inverted values by a factor of 2.5, resulting in a range of 0 to 100 points. This summed value can then be related to other studies. </Pgraph><Pgraph>Then, in both sessions, the participants completed a telephone listening task in a quiet indoor room, in which a female voice read a text from &#8220;Nils Holgersson&#8221; (audio book condition). After the participants had the opportunity to adjust the volume of the test smartphone again, they listened to this monologue and evaluated the telephony with this female speaker (Q4, analogous to Q3). Then, with the same smartphone volume setting, audiological tests of speech intelligibility and listening effort followed in randomised order. Telephone speech reception thresholds (SRTs) in noise were measured in a sound-attenuated room with the female version of the Oldenburg Sentence Test (OLSAf, <TextLink reference="1"></TextLink>, <TextLink reference="35"></TextLink>) in open response format. The speech signal was presented via the test smartphone. For this purpose, the test smartphone was called by a telephone (Siemens OpenStage 15) connected to a PC on which the Oldenburg Measurement Applications (H&#246;rzentrum Oldenburg gGmbH, Oldenburg) were used. The noise (Olnoisef, <TextLink reference="35"></TextLink>) was presented via a loudspeaker (Mackie HR824) from 0&#176; at a distance of 1.3 m. The noise was thus only present on the receiver side and not on the transmitter side. Possible effects of the transmitter-side transmission path on the signal and the signal-to-noise ratio were not investigated. The speech signal of the OLSAf had the same RMS level and the same speaker as the Nils Holgersson audio play, with which the level of the test smartphone was set to an individually comfortable level (see above). The noise presented directly to the test subject was calibrated to 65 dB SPL. Since the absolute presentation level of the streamed speech signal was individually set once by each test person and no knowledge is available about this absolute presentation level via CI and thus also about the combined presentation level of the streamed speech signal from CI and HG, the term i-SNR (individual SNR) is used in the following for the signal-to-noise ratio of the individually set speech presentation level to the directly presented noise. An i-SNR of 0 dB means that the speech signal, which was set as comfortably loud in a quiet environment, is reproduced in the direct noise (presentation level <TextGroup><PlainText>65 dB SPL</PlainText></TextGroup>). In addition to the initial training of two test lists of 20 sentences each recommended for the OLSA, and in order to be able to estimate whether the speech levels chosen by the participants in the two appointments are equivalent, the speech reception threshold in quiet was determined before testing in noise (one test list, procedure A1 according to <TextLink reference="6"></TextLink>). It was followed by the actual SRT-measurement in noise with one test list and additionally an extended list of 30 sentences. With the longer test list, in addition to the speech reception threshold,  also the speech intelligibility curve was determined (procedure A2 according to <TextLink reference="6"></TextLink>). </Pgraph><Pgraph>To obtain listening effort ratings for telephoning, the adaptive categorical listening effort scaling method (ACALES, <TextLink reference="22"></TextLink>) was used in the same experimental set-up with speech and noise signals from the OLSAf. The ACALES measurement method allows for measuring the mental &#8216;listening load&#8217; or listening effort that a person must expend to understand speech in noise. It includes a short training phase followed by a test list at different signal-to-noise ratios (the individual sentences are presented three times each, while input can be given after the first presentation). The task of the participants is to rate each of the presented sentences in terms of listening effort using a 13-step categorical rating scale with seven labelled categories from &#8220;effortless&#8221; to &#8220;extremely effortful&#8221; (effort scale categorical units, ESCU, from 1&#8211;13) with an additional category of &#8220;noise only&#8221;. The corresponding question was &#8220;How much effort does it require for you to follow the speaker&#63;&#8221;. The answer is given via a touch screen. The procedure is adaptive in the sense of an automatic individual calculation of the SNR variations to be tested, which are generated by changing the speech level. The result of the measurement is an individual listening effort function that covers the SNR range for &#8220;effortless&#8221; to &#8220;extremely effortful&#8221; (for more details on the procedure, see <TextLink reference="22"></TextLink>). </Pgraph><SubHeadline>Hearing aid and CI programming</SubHeadline><Pgraph>In the first appointment, the hearing systems were used with the programmes and settings used by the patients in everyday life. The technical functionality of the systems was checked by the test leaders before the test was carried out. Standard fitting procedures were used for programming the two devices at the beginning of the second appointment. The GN ReSound LiNX 3D LT962-DRW and LT988-DW hearing aids were fitted with only one programme (P1). This corresponded to a common everyday programme (All-Around). The fitting followed the suggestions given by the GN ReSound software (ReSound SmartFit) with the input parameters audiogram, and experienced hearing aid user (used to WDRC systems). The initial fitting was made and, if necessary, the overall gain was increased or decreased. No further fine tuning was done. Hearing aids were selected according to hearing loss on the hearing aid-supplied ear of the participants. The coupling was also adjusted to this, following the recommendations of the fitting software. A clinical engineer transferred the MAP (personalised stimulation parameters) last used with the participant&#39;s own CI processor to the Nucleus<Superscript>&#174;</Superscript> 7 test processor using the associated fitting software from Cochlear (Nucleus<Superscript>&#174;</Superscript> Custom Sound Fitting Software). The default setting was used for streaming. In this setting, the streamed signals from the smartphone are presented with the signals from the microphones on the speech processor in a mixing ratio of 2:1.</Pgraph><SubHeadline>Data analysis and statistics</SubHeadline><Pgraph>The ACALES procedure automatically fits a function with two slopes to the individual listening effort scale categorical units (ESCUs) without using the rating category &#8220;noise only&#8221;, where one of the slopes describes the course between 1 and 7 ESCUs and the second describes the course between 7 and 13 ESCUs. The crossing point between categories 5 and 9 ESCU is smoothed (details <TextLink reference="22"></TextLink>). The underlying SNR and associated ESCUs can be read out. The mean functions for listening effort were derived by fitting the same function with two slopes to all individually measured listening effort ratings for the two telephony conditions. </Pgraph><Pgraph>A non-parametric statistical test, the Wilcoxon signed-rank test, was used to compare questionnaire responses for the reference and streaming conditions. After verification of the normal distribution (Shapiro-Wilk test, p&#62;0.05), the audiological data were analysed for significant differences using parametric tests (paired T-test (one-sided), or two-factorial repeated measures (RM) ANOVA with Bonferroni correction for multiple comparisons). In the ACALES procedure, the seven named (i.e., labelled) assessment categories from ESCU 1 &#8220;effortless&#8221; to ESCU 13 &#8220;extremely effortful&#8221; were evaluated (ESCU 1, 3, 5, 7, 9, 11 and 13) and analysed for significant differences between conditions. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><Pgraph>Ein Teilnehmer absolvierte T1 (Referenz), aber nicht T2 (Streaming), ein weiterer wurde als Ausrei&#223;er identifiziert (SVS<Subscript>Streaming</Subscript>&#62;2 SD &#252;ber dem Mittelwert) und zeigte inkonsistente Daten zwischen T1 und T2, bzw. zwischen Fragebogenbewertungen und OLSA- sowie ACALES-Ergebnissen in T2. Dies wies auf eine fehlerhafte Einstellung am Wandler innerhalb der Messkette f&#252;r die adaptiven Messungen hin. Beide Teilnehmer wurden aus der weiteren Datenanalyse ausgeschlossen. Die im Folgenden gezeigten Ergebnisse beruhen auf einer Datenbasis von 20 Personen. Zwischen T1 und T2 lagen im Mittel (&#177;SD) 43,6&#177;40,9 Tage.</Pgraph><SubHeadline>Fragebogendaten</SubHeadline><SubHeadline2>Referenz-Telefonie (Q2)</SubHeadline2><Pgraph>Aus dem Fragebogen Q2 ging hervor, dass 75&#37; der Teilnehmenden im Alltag Festnetztelefone benutzen und nur 25&#37; Mobiltelefone. In Bezug auf das Ohr bzw. die Seite, mit der sie telefonieren, berichteten die Teilnehmenden in 65&#37; der F&#228;lle, dass sie die H&#246;rger&#228;t-Seite und in 35&#37; die CI-Seite benutzen. Keiner der Teilnehmenden verwendet regelm&#228;&#223;ig Bluetooth-Verbindungen und Streaming oder die Telefonspule zum Telefonieren, daher kam diese Art der Telefonie nicht in der Referenz vor. In den meisten F&#228;llen wird lediglich das Telefon auf die Mikrofone des H&#246;rsystems oder auf die Ohrmuschel gelegt (13). Andere benutzen den Lautsprecher des Telefons&#47;Smartphones (3) oder nehmen das H&#246;rsystem (H&#246;rger&#228;t) ab und telefonieren konventionell mit dem H&#246;rer des Telefons auf der Ohrmuschel (4). Die Teilnehmenden telefonieren im Durchschnitt einmal pro Tag (Median zwischen 1 und 2&#8211;3 Anrufe pro Tag).</Pgraph><SubHeadline2>Akzeptanz (Q3 und Q4)</SubHeadline2><SubHeadline3>Lautst&#228;rke des Smartphones</SubHeadline3><Pgraph>Die Teilnehmenden stellten den Pegel des Smartphones in der Anfangsphase jedes Telefongespr&#228;chs (mit Versuchsleiter, VL, bzw. H&#246;rbuch-Sprecherin, HB) auf eine f&#252;r sie individuell angenehme Lautheit ein. Der resultierende Pegel des Smartphones nach der Anpassung unterschied sich signifikant zwischen der Referenz- und der Streaming-Bedingung (Wilcoxon-Test, Z<Subscript>VL</Subscript>&#61;&#8211;3,733, N&#61;20, Z<Subscript>HB</Subscript>&#61;&#8211;3,638, beide p&#60;0,001, N&#61;19). Die Smartphone-Lautst&#228;rke war in beiden Bedingungen f&#252;r direktes Streaming signifikant niedriger als f&#252;r die Referenzbedingung (Median bei 10,5&#47;16 (Gespr&#228;ch mit Versuchsleiter) bzw. 12&#47;16 (H&#246;rbuch) der Skala im Vergleich zur Vollskala (Referenz), siehe auch Abschnitt Audiologische Daten). </Pgraph><SubHeadline3>Lautheit</SubHeadline3><Pgraph>Nach der subjektiven Lautst&#228;rke befragt, bewerteten die Teilnehmenden die Lautheit beim Telefonieren mit dem Versuchsleiter, bzw. H&#246;ren des H&#246;rbuchs im Medianwert als ausreichend: Dies war zu erwarten, da sie die Lautst&#228;rke anfangs individuell auf angenehm laut eingestellt hatten. Zwei der Teilnehmenden erreichten allerdings auch bei Vollskala des Smartphones nur eine niedrige Lautheit (sehr leise bzw. zu leise). Bei einer Person traf dieses auf beide Termine zu. Bei der anderen war dies erst nach dem Wechsel auf die Studienger&#228;te der Fall. Hier hatte das Studien-H&#246;rger&#228;t den H&#246;rverlust nicht ausgleichen k&#246;nnen und auch auf CI-Seite konnte aufgrund beginnender Gesichtsnerv-Stimulation der Pegel nicht weiter erh&#246;ht werden. In Bezug auf die eigene Stimme beim Telefonat mit dem Versuchsleiter wurde die Lautst&#228;rke beim direkten Streamen im Medianwert als niedriger (Z<Subscript>VL</Subscript>&#61;&#8211;2,124, p&#60;0,05, N&#61;20) empfunden. Beim H&#246;ren des H&#246;rbuchs &#252;ber Telefon wurde die Lautst&#228;rke der eigenen Stimme nicht abgefragt.</Pgraph><SubHeadline3>Klang der Stimme</SubHeadline3><Pgraph>Der Klang der eigenen Stimme sowie derjenigen von Versuchsleiter&#47;In und H&#246;rbuch-Sprecherin wurden von den Teilnehmenden in beiden Messkonditionen im Median als jeweils &#228;hnlich angenehm empfunden. Bei einem direkten Vergleich des Stimmklangs von Versuchsleiter bzw. H&#246;rspiel-Sprecherin anhand von Kontrastpaaren zeigte sich aber ein signifikanter Unterschied in Bezug auf die Deutlichkeit (Kontrastpaar &#8222;deutlich &#8211; undeutlich&#8220;) und N&#228;he (Kontrastpaar &#8222;entfernt &#8211; nah&#8220;) zwischen den beiden Konditionen. Die Stimmen w&#228;hrend des Streamings wurden  als deutlicher und n&#228;her empfunden als bei der Referenz (Deutlichkeit: Z<Subscript>VL</Subscript>&#61;&#8211;2,195, Z<Subscript>HB</Subscript>&#61;&#8211;2,273, N&#228;he: Z<Subscript>VL</Subscript>&#61;&#8211;3,218, Z<Subscript>HB</Subscript>&#61;&#8211;3,213, alle p&#60;0,05, N&#61;19). F&#252;r das H&#246;rspiel wurde in der Streaming-Kondition tendenziell der Klang zus&#228;tzlich auch als angenehmer (Z<Subscript>HB</Subscript>&#61;&#8211;1,874, p&#61;0,061, N&#61;19) und volumin&#246;ser (Z<Subscript>HB</Subscript>&#61;&#8211;1,941, p&#61;0,052, N&#61;19) empfunden. Die Person, die nach dem Wechsel auf die Testger&#228;te kein ausreichendes Sprachverstehen erreichte, konnte diese Bewertung nicht vornehmen. </Pgraph><SubHeadline3>Zufriedenheit mit den H&#246;rsystemen</SubHeadline3><Pgraph>Die Teilnehmenden zeigten eine gr&#246;&#223;ere Gesamtzufriedenheit mit Streaming verglichen mit der Referenz ohne Streaming. Der Unterschied betrug f&#252;r das Telefongespr&#228;ch und das H&#246;rbuch jeweils eine Skaleneinheit. In beiden Situationen wurde die Referenzbedingung mit Median&#61;4 bewertet und die Streaming-Bedingung mit Median&#61;5. Dieser Unterschied war jeweils signifikant (Z<Subscript>VL</Subscript>&#61;&#8211;2,380, N&#61;20, Z<Subscript>HB</Subscript>&#61;&#8211;2,073, N&#61;19, beide p&#60;0,05, Abbildung 2A <ImgLink imgNo="2" imgType="figure"/>).  </Pgraph><SubHeadline3>Sprachverst&#228;ndlichkeit</SubHeadline3><Pgraph>Die subjektive Sprachverst&#228;ndlichkeit beim Telefonieren in der relativ ruhigen Labor-Kondition war bei direktem Streaming sowohl beim Dialog mit Versuchsleiter als auch beim H&#246;ren des H&#246;rbuchs geringf&#252;gig besser als die Referenz und &#228;nderte sich im Medianwert um einen Punkt auf der Skala (von 6, &#8222;sehr viel&#8220;, auf 7, &#8222;alles&#8220;, f&#252;r das Telefonat mit dem Versuchsleiter, bzw. von 5, &#8222;viel&#8220;, auf 6, &#8222;sehr viel&#8220;, f&#252;r das H&#246;rbuch). Der Unterschied war aber nicht signifikant. Zwei der Teilnehmenden hatten kein Sprachverstehen beim Telefonieren, wobei dies in einem Fall erst nach Wechsel auf die Studienger&#228;te eintrat (s.o.).</Pgraph><SubHeadline3>H&#246;ranstrengung</SubHeadline3><Pgraph>Die subjektive H&#246;ranstrengung in Ruhe wurde ebenfalls f&#252;r die beiden Telefonkonditionen bewertet. Die Medianwerte f&#252;r die H&#246;ranstrengung sanken bei direktem <TextGroup><PlainText>Strea</PlainText></TextGroup>ming im Vergleich zur Referenzbedingung um etwa 2,0 bis 2,5 Punkte auf der Skala, hin zu weniger Anstrengung (Abbildung 2B <ImgLink imgNo="2" imgType="figure"/>). F&#252;r das H&#246;rspiel war dieser Unterschied signifikant (Z<Subscript>HB</Subscript>&#61;&#8211;2,549, p&#60;0,05, N&#61;19). </Pgraph><SubHeadline2>Audiologische Daten</SubHeadline2><SubHeadline3>Sprachverst&#228;ndlichkeit</SubHeadline3><Pgraph>Die Sprachverst&#228;ndlichkeit wurde mit dem OLSAf <TextLink reference="1"></TextLink>, <TextLink reference="35"></TextLink> getestet, indem dessen Sprachsignal &#252;ber das Smartphone als Telefonat pr&#228;sentiert wurde. Die Lautst&#228;rke des Smartphones wurde im Vorfeld mit Hilfe des H&#246;rbuchs auf eine angenehme Lautst&#228;rke eingestellt und lag im Median bei 16 Balken (Vollausschlag) auf dem Smartphone f&#252;r die Referenz- und 12 Balken f&#252;r die Streaming-Bedingung. Dieser Unterschied war signifikant (siehe Abschnitt Lautst&#228;rke des Smartphones). Die Schwellenwerte f&#252;r Sprachverst&#228;ndlichkeit in Ruhe f&#252;r die Referenz- und die Streaming-Bedingung waren jedoch &#228;hnlich mit Mittelwerten von 52,3&#177;5,6 dB und 51,0&#177;2,7 dB f&#252;r die Referenz- bzw. die Streaming-Bedingung (N&#61;18). Die Smartphone-Lautst&#228;rkeanpassung scheint daher zu vergleichbaren Sprachpr&#228;sentationspegeln f&#252;r die beiden Bedingungen gef&#252;hrt zu haben. </Pgraph><Pgraph>Die Sprachverst&#228;ndlichkeit im St&#246;rger&#228;usch wurde ebenfalls mit dem OLSAf getestet. Zur Pr&#252;fung der SVS im St&#246;rger&#228;usch wurde die Sprache &#252;ber das Smartphone und das St&#246;rger&#228;usch &#252;ber einen Lautsprecher von vorne mit einer Intensit&#228;t von 65 dB SPL pr&#228;sentiert. Es wurden nur Messungen herangezogen, die sinnvoll konvergiert sind. F&#252;r jeweils 17 Teilnehmende konnten so SVS f&#252;r Referenz und Streaming ermittelt werden. F&#252;r das Telefonieren im St&#246;rger&#228;usch f&#252;hrt die Streaming-Kondition zu einer signifikant besseren Sprachverst&#228;ndlichkeit als die Referenz-Kondition (gepaarter T-Test, T(16)&#61;2,284, p&#60;0,05, N&#61;17; SVS-Messungen mit gleichzeitiger Ermittlung der Schwelle). In Abbildung 3A <ImgLink imgNo="3" imgType="figure"/> werden die mittleren SVS im St&#246;rger&#228;usch f&#252;r die Messungen mit gleichzeitiger Absch&#228;tzung der Steigung dargestellt. Diese lagen bei &#8211;1,7&#177;7,5 dB und &#8211;5,7&#177;6,0 dB i-SNR f&#252;r die Referenz- bzw. Streaming-Bedingung. Die mittlere Differenz betrug 4,0&#177;7,3 dB i-SNR. Allerdings profitierten nicht alle Teilnehmenden von der Streaming-Kondition. Bei sechs der 17 Teilnehmenden wurde entweder nur wenig Ver&#228;nderung oder eine Verschlechterung der SVS in der Streaming-Kondition beobachtet. Zudem zeigte sich, dass die Streaming-Kondition zus&#228;tzlich zu signifikant steileren Steigungen der Sprachverst&#228;ndlichkeitskurven f&#252;hrt (gepaarter T-Test, T(16)&#61;&#8211;2,961, p&#60;0,01, N&#61;17). In Abbildung 3B <ImgLink imgNo="3" imgType="figure"/> sind die mittlere Sprachverst&#228;ndlichkeitsfunktionen f&#252;r die Referenz- und Streaming-Bedingung abgebildet, die aus den Schwellenmessungen mit gleichzeitiger Steigungsermittlung durch Anpassung einer logistischen Funktion an die mittleren Werte f&#252;r Sprachverst&#228;ndlichkeitsschwelle (SVS) und Steigung an der Schwelle (s50) erhalten wurden. Diese hat die Form </Pgraph><Pgraph><ImgLink imgNo="1" imgType="inlineFigure"/></Pgraph><Pgraph>Die mittlere Steigung lag bei 7,5&#177;3,2 &#37;&#47;dB und 1<TextGroup><PlainText>1,4&#177;5,5 &#37;&#47;dB</PlainText></TextGroup> f&#252;r die Referenz bzw. Streaming-Bedingung. Das Minimum lag bei 2,0 bzw. 3,0 &#37;&#47;dB, das Maximum bei 12,0 bzw. 22,0 &#37;&#47;dB f&#252;r die Referenz bzw. Streaming-Bedingung. Die ermittelten Steigungen waren teilweise sehr flach und die entsprechenden SVS somit in ihrer Reliabilit&#228;t eingeschr&#228;nkt. Schlie&#223;t man Teilnehmende mit flachen Sprachverst&#228;ndlichkeitsfunktionen (Steigung von &#60;5 &#37;&#47;dB) aus der Analyse aus, ergab sich f&#252;r die verbliebenen zw&#246;lf Teilnehmenden eine mittlere SVS im St&#246;rger&#228;usch von &#8211;4,0&#177;6,8 dB i-SNR und &#8211;7,8&#177;4,4 dB i-SNR f&#252;r die Referenz- bzw. Streaming-Bedingung, wobei dieser Unterschied aber knapp nicht mehr signifikant war (T(11)&#61;1,633, p&#61;0,066, N&#61;12). Individuell betrachtet, befanden sich in dieser Untergruppe proportional mehr Teilnehmende (5&#47;12), deren SVS sich in der Streaming-Kondition unver&#228;ndert, bzw. verschlechtert zeigte. Die signifikante Zunahme in der Steilheit der Sprachverst&#228;ndlichkeitskurven f&#252;r die Streaming- im Vergleich zur Referenzbedingung wurde aber auch f&#252;r diese Untergruppe gefunden (T(11)&#61;&#8211;2,835, p&#60;0,01, N&#61;12) und betrug im Mittel 3,6 &#37;&#47;dB. </Pgraph><SubHeadline3>Adaptive Kategoriale H&#246;ranstrengungsskalierung</SubHeadline3><Pgraph>Zus&#228;tzlich zur Frage nach der H&#246;ranstrengung innerhalb der Frageb&#246;gen und um H&#246;ranstrengungsbewertungen (ESCUs) als Funktion des SNR zu erhalten, f&#252;hrten die Teilnehmenden ACALES <TextLink reference="22"></TextLink> durch. Wie beim OLSAf im St&#246;rl&#228;rm wurde die Sprache &#252;ber das Smartphone und der St&#246;rl&#228;rm &#252;ber Lautsprecher von vorne mit einem Pegel von 65 dB SPL pr&#228;sentiert. Der Sprachpegel war ebenfalls identisch mit dem f&#252;r den OLSAf (d.h. angepasst auf eine angenehme Lautst&#228;rke beim H&#246;ren des H&#246;rbuchs, s.o.).</Pgraph><Pgraph>Vollst&#228;ndige ACALES-Daten wurden f&#252;r 10 von 20 Teilnehmenden erhalten. ACALES war f&#252;r die meisten Teilnehmenden sehr anstrengend, insbesondere in der Referenzbedingung, und wurde teilweise abgebrochen, weil die maximalen i-SNR bei zu hoher ESCU erreicht wurden (d.h. ACALES verzichtet in solchen F&#228;llen auf eine weitere Erh&#246;hung des i-SNR). Die i-SNRs f&#252;r die verschiedenen Bewertungskategorien (ESCUs) unterschieden sich signifikant (two-way RM-ANOVA, F<Subscript>ESCU</Subscript>(6,54)&#61;78,976, p&#60;0,001). Die resultierenden gemittelten ACALES-Daten zeigten im Vergleich zur Referenz eine signifikante Abnahme der H&#246;ranstrengungen mit Streaming (F<Subscript>T</Subscript>(1,54)&#61;6,068, p&#60;0,05, siehe Abbildung 4 <ImgLink imgNo="4" imgType="figure"/>). Abbildung 4 <ImgLink imgNo="4" imgType="figure"/> ist zu entnehmen, dass besonders im alltagsrelevanten positiven SNR Bereich die Streaming Bedingung einen gro&#223;en Benefit zeigte, der bei ESCU 3 im Mittel ca. 6 dB i-SNR lag. D.h. der Umgebungsl&#228;rm in der Streaming-Bedingung kann im Mittel 6 dB lauter sein im Vergleich zur Situation ohne Streaming, um zu einer H&#246;ranstrengung &#8216;sehr wenig anstrengend&#8217; zu f&#252;hren.   </Pgraph><Pgraph>Allerdings zeigten sich bei ACALES starke individuelle Unterschiede. Bei einigen Teilnehmenden erfolgte keine Abnahme der H&#246;ranstrengung beim Streaming, sondern eher kein oder sogar ein gegenteiliger Effekt. Bezogen auf ESCU 7 (mittelgradig anstrengend) zeigten 7&#47;10 eine Verbesserung von &#8805;4 dB i-SNR, 1&#47;10 keine Verbesserung und 2&#47;10 eine Verschlechterung von bis zu 7 dB i-SNR. Bei ESCU 1 (m&#252;helos) zeigten dieselben 7&#47;10 eine Verbesserung von &#8805;5 dB i-SNR, die Person ohne Verbesserung bei ESCU 7 zeigte eine leichte Verbesserung von knapp 1 dB i-SNR und die verbleibenden 2&#47;10 wiederum eine Verschlechterung von bis zu 7 dB i-SNR. </Pgraph><SubHeadline2>Benutzerfreundlichkeit</SubHeadline2><SubHeadline3>System Usability Scale (SUS, Q5)</SubHeadline3><Pgraph>Die System Usability Scale nach Brooke <TextLink reference="7"></TextLink> wurde von den Teilnehmenden bewertet, um einen Eindruck von der Benutzerfreundlichkeit des Telefonierens mit Streaming zu erhalten. U.a. wird abgefragt, ob die Teilnehmenden das neue System h&#228;ufig benutzen w&#252;rden oder ob sie es als umst&#228;ndlich empfinden. Einzelbewertungen wurden verwendet, um eine mittlere SUS-Gesamtpunktzahl zu erhalten. Diese betrug 85,3 Punkte, was auf eine als &#8218;exzellent&#8216; zu klassifizierende Benutzerfreundlichkeit der Smartphone-Telefonie mit direktem Streaming gem&#228;&#223; Bangor et al. <TextLink reference="5"></TextLink> hindeutet.</Pgraph><SubHeadline3>Benutzerfreundlichkeit im Vergleich zur Referenz (SUS&#95;comp, Q6)</SubHeadline3><Pgraph>Um einen Zugang zur Benutzerfreundlichkeit des Streamens beim Telefonieren im Vergleich zur Referenztelefonie zu erhalten, wurde ein Fragebogen verwendet, in dem beide hinsichtlich der Komplexit&#228;t des Systems, der Einfachheit der Bedienung, der Benutzbarkeit ohne professionelle Hilfe, der Zusammenstellung der Systemfunktionen sowie der Intuitivit&#228;t der Benutzung verglichen werden. Hierbei handelt es sich um &#228;hnliche Aspekte der Benutzerfreundlichkeit wie im vorherigen Fragebogen Q5 abgefragt wurden. Die resultierenden Bewertungen von 19 der 20 Teilnehmenden sind in Abbildung 5 <ImgLink imgNo="5" imgType="figure"/> dargestellt. Eine Person konnte das Streamen mit den H&#246;rsystemen nicht bewerten, nachdem sie nach dem Wechsel auf die Testger&#228;te kein ausreichendes Sprachverstehen erreichen konnte. In Bezug auf alle Aspekte bevorzugen die Teilnehmenden hinsichtlich der Benutzerfreundlichkeit das direkte Streamen gegen&#252;ber der Referenz. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><Pgraph>One participant completed T1 (reference) but not T2 (streaming), another was identified as an outlier (SRT<Subscript>Streaming</Subscript>&#62;2 SD above the mean) and showed inconsistent data between T1 and T2, or between questionnaire scores and OLSA and ACALES scores in T2. This indicated a faulty setting of the transducer within the measurement chain for the adaptive measurements. Both participants were excluded from further data analysis. The results shown below are based on a database of 20 individuals. The mean (&#177;SD) time between T1 and T2 was 43.6&#177;40.9 days.</Pgraph><SubHeadline>Questionnaire data</SubHeadline><SubHeadline2>Reference telephony (Q2)</SubHeadline2><Pgraph>The Q2 questionnaire revealed that 75&#37; of the participants use landline telephones in everyday life and only 25&#37; use mobile phones. In terms of the ear or side they use to make phone calls, participants reported using the hearing aid side in 65&#37; of cases and the CI side in 35&#37;. None of the participants regularly use Bluetooth connections and streaming or the telecoil to make phone calls, so this type of telephony did not occur in the reference. In most cases, the phone is placed on the hearing instrument&#8217;s microphones or on the earpiece (13). Others use the loudspeaker of the phone&#47;smartphone (3) or take off the hearing system (hearing aid) and make conventional phone calls with the receiver of the phone on the pinna (4). On average, participants make one phone call per day (median between 1 and 2&#8211;3 calls per day).</Pgraph><SubHeadline2>Acceptance (Q3 and Q4)</SubHeadline2><SubHeadline3>Volume of the smartphone</SubHeadline3><Pgraph>The participants adjusted the level of the smartphone in the initial phase of each telephone conversation (with the test leader, TL, or the audio book speaker, AB) to a level that was comfortable for them individually. The resulting smartphone level after adjustment differed significantly between the reference and streaming conditions (Wilcoxon test, Z<Subscript>TL</Subscript>&#61;&#8211;3.733, N&#61;20, Z<Subscript>AB</Subscript>&#61;&#8211;3.638, both p&#60;0.001, N&#61;19). Smartphone loudness was significantly lower for direct streaming than for the reference condition in both conditions (median at 10.5&#47;16 (conversation with TL) and 12&#47;16 (audio book) of scale compared to full scale (reference), see also Audiological Data section). </Pgraph><SubHeadline3>Loudness</SubHeadline3><Pgraph>When asked about subjective loudness, the participants rated the loudness when talking on the phone with the test leader or listening to the audio book as sufficient in median: this was to be expected, since they had initially set the volume individually to a comfortably loud level. However, two of the participants only achieved a low level of loudness (very quiet or too quiet) even when the smartphone was set to full scale. For one person, this was the case for both appointments. For the other, this was only the case after switching to the study devices. In this case, the study hearing aid had not been able to compensate for the hearing loss and on the CI side, the level could not be increased further due to the onset of facial nerve stimulation. Regarding one&#39;s own voice during a telephone conversation with the test person, the volume was perceived as lower (Z<Subscript>TL</Subscript>&#61;&#8211;2.124, p&#60;0.05, N&#61;20) when streaming directly. When listening to the audio book via telephone, the volume of one&#39;s own voice was not queried.</Pgraph><SubHeadline3>Sound of voice</SubHeadline3><Pgraph>The sound of their own voice as well as the voice of the experimenter and the audio book speaker was perceived as pleasant by the participants in both measurement conditions in median. However, a direct comparison of the voice sound of the test leader and the audio book speaker on the basis of contrast pairs showed a significant difference in terms of clarity (contrast pair &#8220;clear &#8211; unclear&#8221;) and proximity (contrast pair &#8220;distant &#8211; close&#8220;) between the two conditions. According to the median, the voices during streaming were perceived as clearer and closer than in the reference (clarity: Z<Subscript>TL</Subscript>&#61;&#8211;2.195, Z<Subscript>AB</Subscript>&#61;&#8211;2.273, proximity: Z<Subscript>TL</Subscript>&#61;&#8211;3.218, Z<Subscript>AB</Subscript>&#61;&#8211;3.213, all p&#60;0.05, N&#61;19). For the audio book, in the streaming condition, the sound also tended to be perceived as more pleasant (Z<Subscript>AB</Subscript>&#61;&#8211;1.874, p&#61;0.061, N&#61;19) and more voluminous (Z<Subscript>AB</Subscript>&#61;&#8211;1.941, p&#61;0.052, N&#61;19). The person who did not achieve adequate speech understanding after switching to the test devices could not make this assessment. </Pgraph><SubHeadline3>Satisfaction with the hearing systems</SubHeadline3><Pgraph>Participants showed greater overall satisfaction with streaming compared to the reference without streaming. The difference was one scale unit for both, the telephone conversation, and the audio book. In both situations, the reference condition was rated median&#61;4 and the streaming condition was rated median&#61;5. This difference was significant in each case (Z<Subscript>TL</Subscript>&#61;&#8211;2.380, N&#61;20, Z<Subscript>AB</Subscript>&#61;&#8211;2.073, N&#61;19, both p&#60;0.05, Figure 2A <ImgLink imgNo="2" imgType="figure"/>).</Pgraph><SubHeadline3>Speech intelligibility</SubHeadline3><Pgraph>Subjective speech intelligibility when talking on the phone in the relatively quiet laboratory condition was slightly better than the reference when streaming directly, both when talking to the test leader and when listening to the audio book, and changed by one scale unit in median (from 6, &#8220;very much&#8221;, to 7, &#8220;all&#8221;, for talking on the phone with the test leader, and from 5, &#8220;a lot&#8221;, to 6, &#8220;very much&#8221;, for the audio book). However, the difference was not significant. Two of the participants had no speech understanding when talking on the phone, although in one case this only occurred after switching to the study devices (see above).</Pgraph><SubHeadline3>Listening effort</SubHeadline3><Pgraph>Subjective listening effort in quiet was also assessed for the two telephone conditions. Median listening effort scores decreased by approximately 2.0 to 2.5 points on the scale for direct streaming compared to the reference condition, towards less effort (Figure 2B <ImgLink imgNo="2" imgType="figure"/>). For the audio book, this difference was significant (Z<Subscript>AB</Subscript>&#61;&#8211;2.549, p&#60;0.05, N&#61;19). </Pgraph><SubHeadline2>Audiological data</SubHeadline2><SubHeadline3>Speech intelligibility</SubHeadline3><Pgraph>Speech intelligibility was tested with the OLSAf <TextLink reference="1"></TextLink>, <TextLink reference="35"></TextLink> by presenting its speech signal as a phone call via the smartphone. The volume of the smartphone was set in advance to a comfortable level using the audio book and was 16 bars (full scale) on the smartphone in median for the reference condition and 12 bars for the streaming condition. This difference was significant (see section on smartphone volume). However, the thresholds for speech intelligibility in quiet for the reference and streaming conditions were similar with mean values of <TextGroup><PlainText>52.3&#177;5.6 dB</PlainText></TextGroup> and 51.0&#177;2.7 dB for the reference and streaming conditions, respectively (N&#61;18). The smartphone volume adjustment therefore seems to have resulted in comparable speech presentation levels for the two conditions. </Pgraph><Pgraph>Speech intelligibility in noise was also tested using the OLSAf. To obtain SRT in noise, speech was presented via the smartphone and noise was presented via a loudspeaker from the front at an intensity of 65 dB SPL. Only measurements that converged meaningfully were used. SRTs for reference and streaming could thus be determined for 17 participants. For phoning in noise, the streaming condition leads to significantly better speech intelligibility than the reference condition (paired T-test, T(16)&#61;2.284, p&#60;0.05, N&#61;17; SRT measurements with simultaneous threshold determination). Figure 3A <ImgLink imgNo="3" imgType="figure"/> shows mean SRTs in noise for measurements with simultaneous estimation of the slope. These were &#8211;1.7&#177;7.5 dB and &#8211;5.7&#177;6.0 dB i-SNR for the reference and streaming conditions, respectively. The mean difference was <TextGroup><PlainText>4.0&#177;7.3 dB</PlainText></TextGroup> <TextGroup><PlainText>i-SNR</PlainText></TextGroup>. However, not all participants benefited from the streaming condition. In six of the 17 participants, either little change or a worsening of the SRT was observed in the streaming condition. In addition, the streaming condition was found to lead to significantly steeper slopes of the speech intelligibility curves (paired T-test, T(16)&#61;&#8211;2.961, p&#60;0.01, N&#61;17). Figure 3B <ImgLink imgNo="3" imgType="figure"/> shows the mean speech intelligibility functions for the reference and streaming conditions obtained from the threshold measurements with simultaneous slope estimation by fitting a logistic function to the mean values for speech reception threshold (SRT) and slope at threshold (s50). This has the form </Pgraph><Pgraph><ImgLink imgNo="1" imgType="inlineFigure"/></Pgraph><Pgraph>The mean slope was 7.5&#177;3.2 &#37;&#47;dB and 11.4&#177;5.5 &#37;&#47;dB for the reference and streaming conditions, respectively. The minimum was 2.0 and 3.0 &#37;&#47;dB, the maximum was 12.0 and 22.0 &#37;&#47;dB for the reference and streaming condition, respectively. The slopes obtained were partly very flat and the corresponding SRTs were thus limited in their reliability. If participants with flat speech intelligibility functions (slope of &#60;5 &#37;&#47;dB) were excluded from the analysis, the mean SRTs in noise for the remaining twelve participants was &#8211;4.0&#177;6.8 dB i-SNR and <TextGroup><PlainText>&#8211;7.8&#177;4.4 dB</PlainText></TextGroup> <TextGroup><PlainText>i-SNR</PlainText></TextGroup> for the reference and streaming conditions, respectively. This difference was just below the significance level (T(11)&#61;1.633, p&#61;0.066, N&#61;12). Individually, there were proportionally more participants (5&#47;12) in this subgroup whose SRT was unchanged or worsened in the streaming condition. However, the significant increase in the slope of the speech intelligibility functions for the streaming compared to the reference condition was also found for this subgroup (T(11)&#61;&#8211;2.835, p&#60;0.01, N&#61;12) and averaged 3.6 &#37;&#47;dB. </Pgraph><SubHeadline3>Adaptive categorical listening effort scaling</SubHeadline3><Pgraph>In addition to asking about listening effort within the questionnaires and to obtain listening effort ratings (<TextGroup><PlainText>ESCUs</PlainText></TextGroup>) as a function of SNR, participants completed ACALES <TextLink reference="22"></TextLink>. As with OLSAf in noise, speech was presented via the smartphone and noise was presented via speakers from the front at a level of 65 dB SPL. The speech level was also identical to that for OLSAf (i.e., adjusted to a comfortable level when listening to the audio book, see above).</Pgraph><Pgraph>Full ACALES data were obtained for 10 out of 20 participants. ACALES was very demanding for most participants, especially in the reference condition, and was partly discontinued because the maximum i-SNRs were reached at too high ESCU (i.e., ACALES refrains from further increasing the i-SNR in such cases). The i-SNRs for the different assessment categories (ESCUs) differed significantly (two-way RM-ANOVA, F<Subscript>ESCU</Subscript>(6,54)&#61;78.976, p&#60;0.001). The resulting averaged ACALES data showed a significant decrease in listening effort with streaming compared to the reference (F<Subscript>T</Subscript>(1,54)&#61;6.068, p&#60;0.05, see Figure 4 <ImgLink imgNo="4" imgType="figure"/>). Figure 4 <ImgLink imgNo="4" imgType="figure"/> shows that especially in the positive SNR range relevant to everyday life, the streaming condition showed a large benefit, which averaged about 6 dB i-SNR for ESCU 3. That is, the ambient noise in the streaming condition can be on average 6 dB louder compared to the situation without streaming to lead to a hearing effort of &#8216;very little effort&#8217;. </Pgraph><Pgraph>However, ACALES showed strong individual differences. For some participants, there was no decrease in listening effort with streaming, but rather no effect or even the opposite effect. For ESCU 7 (moderate effort), 7&#47;10 showed an improvement of &#8805;4 dB i-SNR, 1&#47;10 showed no improvement and 2&#47;10 showed a deterioration of up to 7 dB i-SNR. At ESCU 1 (effortless), the same 7&#47;10 showed an improvement of &#8805;5 dB i-SNR, the person with no improvement at ESCU 7 showed a slight improvement of just under 1 dB i-SNR and the remaining 2&#47;10 again showed a deterioration of up to 7 dB i-SNR. </Pgraph><SubHeadline2>Usability</SubHeadline2><SubHeadline3>System Usability Scale (SUS, Q5)</SubHeadline3><Pgraph>The System Usability Scale according to Brooke <TextLink reference="7"></TextLink> was evaluated by the participants to get an impression of the usability of telephoning with streaming. Among other things, participants were asked whether they would use the new system frequently or whether they found it cumbersome. Individual scores were used to obtain an overall mean SUS score. This was 85.3 points, indicating that the usability of smartphone telephony with direct streaming could be classified as &#39;excellent&#39; according to Bangor et al. <TextLink reference="5"></TextLink>.</Pgraph><SubHeadline3>Usability compared to the reference (SUS&#95;comp, Q6)</SubHeadline3><Pgraph>To access the usability of streaming telephony compared to the reference telephony, a questionnaire was used to compare the two in terms of the complexity of the system, the ease of use, the usability without professional help, the set of system features and the intuitiveness of use. These are similar aspects of usability as were asked in the previous questionnaire Q5. The resulting ratings of 19 of the 20 participants are shown in Figure 5 <ImgLink imgNo="5" imgType="figure"/>. One person was not able to rate streaming with the hearing aids after not being able to achieve sufficient speech understanding after switching to the test devices. Regarding all aspects, the participants prefer direct streaming to reference in terms of usability. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><SubHeadline>Referenzkondition</SubHeadline><Pgraph>Der Fragebogen zur Referenz-Telefonie in der vorliegenden Studie ergab, dass 75&#37; der Teilnehmenden vorwiegend &#252;ber Festnetztelefone und nur 25&#37; mit dem Mobiltelefon telefonieren. Generell scheint f&#252;r CI-Tr&#228;ger das Telefonieren mit dem Mobiltelefon herausfordernder zu sein als das Telefonieren mit einem Festnetztelefon. In einer Fragebogenstudie von Anderson et al. <TextLink reference="2"></TextLink> f&#252;hlten sich 71&#37; der CI-Tr&#228;ger in der Lage zu einem gewissen Ma&#223;e mit Festnetztelefon zu telefonieren und nur 54&#37; mit Mobiltelefonen (Mehrfachantworten). Laut der Studie von Anderson et al. <TextLink reference="2"></TextLink> war das Sprechen &#252;ber vertraute Themen mit Familienmitgliedern die einfachste Kondition und auch das Erkennen von Stimmen einfacher &#252;ber das Festnetz. Obwohl sie in Ihrem Alltag nur wenig bis gar nicht &#252;ber Mobiltelefon telefonieren, waren die meisten Teilnehmenden der vorliegenden Studie zumindest in einer ruhigen Situation gut in der Lage, ein Gespr&#228;ch &#252;ber das Mobiltelefon zu f&#252;hren (Medianwert von mindestens 5 (viel) auf der Bewertungsskala von nichts (1) bis alles (7) bzgl. des Sprachverstehens).</Pgraph><Pgraph>Die Referenzkondition bestand aus sehr heterogenen, individuellen L&#246;sungen, so dass die Differenzwerte Referenz&#47;Streaming Kondition st&#228;rker streuen als es bei einer laborinduzierten Referenzbedingung zu erwarten gewesen w&#228;re. Die Referenzkondition wurde bewusst divers gew&#228;hlt, da dadurch dem Aspekt der &#246;kologischen Validit&#228;t Rechnung getragen werden konnte. Anekdotisch wird immer wieder berichtet, dass hochgradig bis an Taubheit grenzende h&#246;rgesch&#228;digte Personen teilweise sehr fantasievolle &#8218;work arounds&#8216; zur Telefonie im Alltag benutzen, weil oftmals keine einfach zu bedienenden Telefonsysteme f&#252;r den Nutzer zu Verf&#252;gung stehen. Die Daten zeigen insgesamt, dass die hier im Test eingesetzte MFi-Technologie offenbar zu einer deutlichen Verbesserung gef&#252;hrt hat und dass somit zu erwarten ist, mit dieser oder einer vergleichbaren Technologie die m&#252;hsamen &#8218;work arounds&#8216; vermeiden zu k&#246;nnen.        </Pgraph><SubHeadline2>Klangqualit&#228;t</SubHeadline2><Pgraph>Die Klangqualit&#228;t wurde in beiden Bedingungen als &#228;hnlich gut wahrgenommen. Mithilfe von Kontrastpaaren stellte sich allerdings heraus, dass die Stimmen der Gespr&#228;chspartner f&#252;r das direkte Streaming als deutlicher und n&#228;her als f&#252;r die Referenz empfunden wurden. Letzteres mag vielleicht daran liegen, dass die Referenztelefonie &#252;berwiegend nur &#252;ber das Mikrofon eines der H&#246;rsysteme erfolgte, w&#228;hrend die Streaming-Telefonie in jedem Fall auf beide H&#246;rsysteme erfolgt. Die Verwendung beider Ohren kann m&#246;glicherweise den Klang der Stimmen in eine zentralere und damit n&#228;here Wahrnehmung verlagern. Balfour und Hawkins <TextLink reference="4"></TextLink> untersuchten das H&#246;ren monaural und bilateral versorgter H&#246;rger&#228;tetr&#228;ger mit symmetrischem mildem oder moderatem H&#246;rverlust anhand von Klangqualit&#228;tsdimensionen (Helligkeit, Klarheit, Volumen, Lautheit, N&#228;he, Gesamteindruck, Sanftheit und R&#228;umlichkeit). Ihre Ergebnisse zeigten eine deutliche bilaterale Pr&#228;ferenz f&#252;r alle acht Klangqualit&#228;tsdimensionen unabh&#228;ngig von der H&#246;rumgebung. Die bilateralen Pr&#228;ferenzen waren am st&#228;rksten f&#252;r den Gesamteindruck, die F&#252;lle und die R&#228;umlichkeit. In einer Studie mit bimodal versorgten Probanden <TextLink reference="9"></TextLink> wurde ebenfalls die pr&#228;sentierte bimodale H&#246;rsituation als volumin&#246;ser, weniger blechern und weniger unangenehm empfunden als CI allein. Unterschiede in der Bewertung zwischen Referenz- und Streaming-Kondition f&#252;r einige der Kontrastpaare in der vorliegenden Studie k&#246;nnen also durchaus auf eine unterschiedliche Wahrnehmung durch die in der Referenz zumeist unilaterale, bzw. in der Streaming-Kondition bilaterale Signalpr&#228;sentation zur&#252;ckzuf&#252;hren sein. </Pgraph><SubHeadline2>Benutzerfreundlichkeit</SubHeadline2><Pgraph>Die Benutzerfreundlichkeit f&#252;r die Streaming-Bedingung ist besser als die Referenz und wird als &#8218;exzellent&#8216; bewertet. Dies ist bemerkenswert, da die meisten Teilnehmenden bisher noch nie Streaming bzw. Bluetooth im Zusammenhang mit Telefonieren verwendet haben. Einzig die &#8222;Benutzerfreundlichkeit ohne professionelle Hilfe&#8220; wurde etwas schlechter bewertet, das hei&#223;t nicht, alle Probanden w&#252;rden sich zutrauen, das System ohne Hilfe zu verwenden. Eine m&#246;gliche Ursache hierf&#252;r ist die Unsicherheit einiger der Teilnehmenden im Umgang mit Smartphones z.B. in Anbetracht dessen, dass zun&#228;chst das Smartphone und die H&#246;rsysteme gekoppelt werden m&#252;ssen. Generell l&#228;sst dieses Ergebnis hoffen, dass das Streamen beim Telefonieren mit einer entsprechenden Einweisung durch klinische Audiologen eine gute Akzeptanz bei den bimodalen Patienten erreichen kann. </Pgraph><SubHeadline2>Sprachverst&#228;ndlichkeit</SubHeadline2><Pgraph>Die bekannten Schwierigkeiten bei Studien mit bimodaler Versorgung, dass der Darbietungspegel auf der CI-Seite nicht akustisch gemessen werden kann, f&#252;hrte in der vorliegenden Studie dazu, dass der Sprachpr&#228;sentationspegel am bzw. im Ohr sowohl f&#252;r die Referenz- als auch die Streaming-Kondition unbekannt ist. Pegel-Angaben f&#252;r das Sprachsignal sind daher nicht absolut (siehe Definition von i-SNR unter Prozedur und Aufbau) und m&#252;ssen mit Vorsicht interpretiert werden. Durch die Anpassung des Sprachpr&#228;sentationspegel f&#252;r beide Konditionen wurden die Signale aber zumindest in der Relation zueinander gleich laut (auf eine angenehme Lautst&#228;rke) eingestellt, so dass auch SNR-Werte in Relation zueinander interpretierbar wurden. Generell scheint die Lautheitskategorie &#8222;Angenehm&#8220; recht robust und weist in Studien nur eine geringe intraindividuelle Streuung auf <TextLink reference="16"></TextLink>. </Pgraph><Pgraph>Durch das Streamen der Sprachsignale in beide H&#246;rsysteme konnte das subjektive Sprachverstehen in der ruhigen Laborsituation nur leicht gesteigert werden, da die Lautst&#228;rke des Smartphones im Vorfeld durch die Teilnehmenden angepasst (heruntergeregelt) wurde. M&#246;gliche Effekte durch eine bessere Ankopplung beim Streaming wurden so ausgeglichen. W&#228;re diese Anpassung nicht vorgenommen worden, w&#228;re der Unterschied in der subjektiven Sprachverst&#228;ndlichkeit voraussichtlich deutlicher gewesen. Die Sprachverst&#228;ndlichkeitstests zeigten allerdings, dass f&#252;r ein Telefonat in st&#246;rger&#228;uschbehafteter Situation eine Verbesserung des Sprachverstehens hervorgerufen wird. Die Sprachverst&#228;ndlichkeitsschwelle in Ruhe ist wesentlich durch die absolute Lautst&#228;rke der Sprachsignale beeinflusst, w&#228;hrend Schwellen im St&#246;rger&#228;usch durch den Signal-Rausch-Abstand beeinflusst werden und &#252;ber einen gro&#223;en Bereich relativ unabh&#228;ngig von der absoluten Lautst&#228;rke sind, solange die Signale gut geh&#246;rt werden k&#246;nnen <TextLink reference="33"></TextLink>. Der Signal-Rausch-Abstand kann ge&#228;ndert werden, indem entweder das Sprachsignal oder das St&#246;rger&#228;usch in der Lautst&#228;rke ver&#228;ndert wird. Obwohl die Lautst&#228;rke der Smartphones unterschiedlich gew&#228;hlt wurde, deuten die vorangegangenen adaptiven Sprachverst&#228;ndlichkeitsschwellen in Ruhe f&#252;r die beiden Bedingungen (d.h. Referenz und Streaming) &#228;hnliche, da in beiden Konditionen angenehme, Sprachpr&#228;sentationspegel an. Es kann daher trotz der individuellen Einstellung des Pr&#228;sentationspegels der Sprache durch die Teilnehmenden anhand der H&#246;rbuch-Pr&#228;sentation davon ausgegangen werden, dass die besseren Sprachverst&#228;ndlichkeitsschwellen in St&#246;rger&#228;usch nicht durch einen wesentlich h&#246;heren Sprachpr&#228;sentationspegel zustande kamen. Vielmehr zeigt sich hier der Einfluss des Streamings auf das St&#246;rger&#228;usch. Ein externes St&#246;rger&#228;usch kann bei Telefonaten mit gestreamten Sprachsignalen besser abgeschw&#228;cht und&#47;oder auch ausgeblendet werden. Der N6-Prozessor, den die meisten der Teilnehmenden beim Referenztermin trugen, hat &#228;hnliche Signalvorverarbeitungen wie der N7-Prozessor, welche in erster Linie das Sprachverstehen im St&#246;rger&#228;usch verbessern sollen <TextLink reference="36"></TextLink>. Warren et al. <TextLink reference="36"></TextLink> zeigten, dass das Standard-Sprachverstehen in Ruhe und St&#246;rger&#228;usch (d.h. bei Pr&#228;sentation von Sprache und ggf. St&#246;rger&#228;usch &#252;ber Lautsprecher) f&#252;r beide Signalprozessoren nicht signifikant voneinander abweicht, w&#228;hrend das direkte Streaming der Signale auch dort eine Verbesserung im Vergleich zu der akustischen Telefonie erm&#246;glichte. </Pgraph><Pgraph>Die Ergebnisse der vorliegenden Studie stehen im Einklang mit Ergebnissen von Marcrum et al. <TextLink reference="25"></TextLink>, in deren Arbeit Streaming die Satzerkennung signifikant verbessert und die H&#246;rschwierigkeiten im Vergleich zu Telefonspulen- oder akustischen Kopplungskonfigurationen reduzierte. Die Ergebnisse einer Studie von Wolfe et al. <TextLink reference="38"></TextLink> weisen ebenfalls darauf hin, dass die Verwendung von drahtloser H&#246;rhilfetechnologie die Spracherkennung (hier Worte) &#252;ber das Mobiltelefon in Ruhe und im L&#228;rm im Vergleich zur Leistung bei der akustischen Mobiltelefonie einer Gruppe erwachsener CI-Tr&#228;ger verbessert. Sie schrieben die Verbesserung der Sprachverst&#228;ndlichkeit im St&#246;rger&#228;usch unter anderem einem verbesserten Signal-Rausch-Verh&#228;ltnis durch Abschw&#228;chung des akustisch &#252;ber die Mikrofone der Soundprozessoren &#252;bertragenen und durch das St&#246;rger&#228;usch beeinflussten Signale zu, sowie dem im Vergleich zur akustischen &#220;bertragung vermutlich robusteren Signal beim Streaming. Dies gilt auch f&#252;r die vorliegende Studie, in der die Default-Einstellung f&#252;r das Streaming genutzt wurde. In dieser wurden die gestreamten Signale vom Smartphone mit den Signalen der Mikrofone am Sprachprozessor in einem Mischungsverh&#228;ltnis von 2:1 dargeboten. Als Konsequenz des angepassten Sprachpr&#228;sentationspegels f&#252;hrte dies nur zu einem um 6 dB abgeschw&#228;chten St&#246;rger&#228;uschpegel in der Streaming-Kondition. Der Klang der gestreamten H&#246;rspielstimme wurde im Median als deutlicher bewertet, was auf eine Reduktion von Verzerrungen (durch Umgehung der Smartphone-Lautsprecher) hindeutet.</Pgraph><Pgraph>Einen weiteren Beitrag kann auch die bilaterale Pr&#228;sentation der Signale in der bimodalen Streaming-Kondition geleistet haben. In der Referenzkondition der vorliegenden Studie wurde vorwiegend einohrig telefoniert (das Smartphone wurde an eines der beiden Ohren bzw. Sprachprozessoren gehalten). Monaurale versus binaurale SVS im St&#246;rger&#228;usch k&#246;nnen sich bei Satztests wie dem OLSA bei Normalh&#246;renden um etwa 2 dB SNR zugunsten der binauralen Situation unterscheiden (nicht publizierte Daten). Beim Vergleich von uni- versus bilateral versorgten CI-Nutzern fanden Laback et al. <TextLink reference="23"></TextLink> eine kleine, aber nicht signifikante Verbesserung von ca. <TextGroup><PlainText>0,5 dB</PlainText></TextGroup> mit dem OLSA (S0N0-Bedingung). Auch andere Studien deuten darauf hin, dass sich das Sprachverstehen im St&#246;rger&#228;usch mit bilateraler Pr&#228;sentation, bzw. Versorgung verbessert im Vergleich zur unilateralen Pr&#228;sentation <TextLink reference="3"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="26"></TextLink>. Bei der bimodalen Versorgung wird dabei mit zwei verschiedenen Modalit&#228;ten geh&#246;rt, die bis zu einem gewissen Grad komplement&#228;re Informationen liefern &#8211; zum Beispiel im Frequenzbereich. Dem entspricht, dass der Klang der H&#246;rspielstimme in dieser Studie in der Streaming-Kondition als tendenziell angenehmer und volumin&#246;ser empfunden als in der Referenzkondition. Hoppe et al. <TextLink reference="19"></TextLink> fanden abh&#228;ngig vom zugrunde liegenden H&#246;rverlust auf der H&#246;rger&#228;te-Seite eine zwischen 0.8 und 1.8 dB verbesserte SVS f&#252;r Patienten in der bimodalen Kondition bezogen auf das versorgte bessere Ohr. </Pgraph><Pgraph>Dennoch scheint es auch gegenteilige Effekte zu geben (d.h. das monaurale Ergebnis ist besser als das binaurale Ergebnis), die sogenannte binaurale Interferenz <TextLink reference="21"></TextLink>. Ausgehend vom Mischungsverh&#228;ltnis von Umgebung (St&#246;rger&#228;usch) und gestreamten Sprachsignal w&#228;re eine Verbesserung der SVS um theoretisch mindestens 6 dB m&#246;glich, betr&#228;gt aber in der vorliegenden Studie im Mittel nur ca. 4 dB. Dass die Verbesserung im Signal-Rauschverh&#228;ltnis bei einer bimodalen Versorgung nicht unbedingt linear im mittleren Sprachverstehen zu finden ist, k&#246;nnte zum Teil Effekten zuzuschreiben sein, die mit der binauralen Integration der Informationen beider Modalit&#228;ten interferiert, zumal in der vorliegenden Studie die beiden unterschiedlichen H&#246;rsysteme bei der Anpassung auch nicht weiter (aufeinander) feinangepasst wurden. Neben den Unterschieden im Frequenzbereich k&#246;nnen zum Beispiel Unterschiede in den Verarbeitungslatenzen zwischen den beiden Seiten (bis zu 9 ms <TextLink reference="39"></TextLink>) nicht ausgeschlossen werden. Auch hatten die Teilnehmenden nur wenig Zeit, sich an die neuen Systeme zu akklimatisieren. In etwa 40&#37; der F&#228;lle mag dies dazu gef&#252;hrt haben, dass vor allem Teilnehmende mit steilen Sprachverst&#228;ndlichkeitskurven und relativ guten SVS f&#252;r die Referenzkondition, nicht von der binauralen Situation profitierten, sondern sich im Gegenteil verschlechterten.</Pgraph><Pgraph>Wie bereits Dietz et al. <TextLink reference="11"></TextLink> betonten, besteht die Tendenz, den H&#246;rnutzen auf Basis der Ver&#228;nderung des SVS-Wertes zu untersch&#228;tzen, wenn nicht auch Aussagen &#252;ber die Steigung der Sprachverst&#228;ndlichkeitskurve gemacht werden k&#246;nnen. Um die Verbesserung der Probanden zu interpretieren, ist es daher hilfreich, zus&#228;tzlich die Steigung der Sprachverst&#228;ndlichkeitskurve zu verwenden. Verschiedene Studien mit CI-Tr&#228;gern beobachteten eine Tendenz zu flacheren Sprachverst&#228;ndlichkeitskurven bei Patienten mit h&#246;heren SVS <TextLink reference="28"></TextLink>, <TextLink reference="17"></TextLink>, <TextLink reference="11"></TextLink>. Laut Dietz et al. <TextLink reference="11"></TextLink> sollte dies mitbeachtet werden, wenn es um eine klinische Verbesserung der Patienten in Ihrer Sprachkompetenz geht. Bei den vorliegenden SVS-Messungen mit gleichzeitiger Absch&#228;tzung der Steigung zeigte sich, dass die Streaming-Kondition auch zu signifikant steileren Steigungen der Sprachverst&#228;ndlichkeitskurven f&#252;hrte. In diesem adaptiven Verfahren wird parallel einmal auf 20&#37; und einmal auf 80&#37;-Sprachverstehen konvergiert <TextLink reference="6"></TextLink>. Der Schwellenwert f&#252;r 80&#37;-Verst&#228;ndlichkeit wird bei einem niedrigeren SNR erreicht, als in der Referenzkondition, w&#228;hrend die 20&#37;-Schwelle sich etwas weniger verbessert, dadurch &#8222;kippt&#8220; die Funktion und wird steiler. Zus&#228;tzlich gibt dies einen Hinweis darauf, dass die Streuung in der Sprachverst&#228;ndlichkeit zwischen den verschiedenen Teilnehmenden im Bereich des guten Sprachverstehens geringer wird durch die M&#246;glichkeit, auf beide Ohren zu streamen. Sie werden also durch die Streaming-Technologie &#228;hnlicher in ihrer Kommunikationsf&#228;higkeit &#252;ber das Mobiltelefon.</Pgraph><Pgraph>Entgegen der Schlussfolgerung von Hey und Kollegen <TextLink reference="17"></TextLink> konnten wir nicht beobachten, dass eine geringe SVS systematisch dazu f&#252;hrt, dass adaptive Messungen nicht gut konvergieren, zumindest nicht nach den verwendeten Verfahren. SVS, die im Bereich einer flachen Steigungen erhalten werden, weisen aber eine geringere Test-Retest-Reliabilit&#228;t auf als SVS, die im Bereich einer steilen Steigung erhalten werden <TextLink reference="17"></TextLink> und m&#252;ssen daher kritisch gesehen werden. In unserer Studie sah man nach Ausschluss von Teilnehmenden mit flachen Sprachverst&#228;ndlichkeitsfunktionen noch immer eine im Mittel um ca. <TextGroup><PlainText>4 dB</PlainText></TextGroup> verbesserte Sprachverst&#228;ndlichkeit mit Streaming, allerdings war dieser Unterschied knapp nicht mehr signifikant.</Pgraph><SubHeadline2>H&#246;ranstrengung</SubHeadline2><Pgraph>Es konnte in dieser Studie gezeigt werden, dass sich sowohl bei den subjektiven Bewertungen &#252;ber den Fragebogen als auch bei dem adaptiven Verfahren ACALES statistisch nachweisbare Verbesserungen durch die Streaming-Technologie ergeben. Bei den Fragebogenverfahren waren diese Effekte etwas schw&#228;cher, da anzunehmen ist, dass dieses Verfahren weniger sensitiv ist, da &#252;ber l&#228;ngere Zeitr&#228;ume gemittelt werden muss (retrospektiver oder kumulativer Bias) und die Bedingungen weniger variiert werden konnten. Das adaptive Verfahren ACALES zeigte somit gr&#246;&#223;ere Unterschiede. Diese finden sich vor allem im Bereich positiver i-SNRs. Mit abnehmendem i-SNR nimmt der Unterschied zwischen Referenz und Streaming ab, was auch einer reduzierten H&#246;rbarkeit des <TextGroup><PlainText>(Telefon-</PlainText></TextGroup>)Sprachsignals zugeschrieben werden kann.  </Pgraph><Pgraph>Bei der Entwicklung der ACALES Messmethode <TextLink reference="22"></TextLink> wurden Nutzer befragt, was Sie genau unter H&#246;ranstrengung verstehen. Im Gegensatz zu physiologischen und kognitiven Verfahren, bei denen die zugrunde liegenden Prozesse eher impliziter Natur sind, haben die Nutzer beschrieben, dass es sich bei der Bewertung unterschiedlicher SNR-Bedingungen um das Wegdr&#228;ngen oder Ausblenden von irrelevanter Information handelt, somit weniger ein Perzept, sondern eine sp&#228;ter erfolgte bewusste, explizite Bewertung des mentalen Aufwandes. Treten solche auditiv vermittelten Anstrengungen geh&#228;uft auf, ist das Resultat Ersch&#246;pfung (engl. &#8218;Fatigue&#8216;), vergl. <TextGroup><PlainText>McGar</PlainText></TextGroup>rigle et al. <TextLink reference="27"></TextLink>. Die hier gezeigten Ergebnisse zeigen, dass der mentale Aufwand durch die Streaming-Technologie deutlich verringert werden konnte und dies insbesondere im alltagsrelevanten Bereich eines positiven SNR. Diese Unterschiede waren nicht nur rein statistisch gefasste Signifikanzgr&#246;&#223;en: Bei 0 dB i-SNR wurde die H&#246;ranstrengung im Mittel um drei Skalenpunkten von &#8218;deutlich anstrengend&#8216; in der Referenzkondition bis &#8218;wenig&#47;mittelgradig anstrengend&#8216; in der Streaming Kondition reduziert, so dass nutzerseitig auch von einer klinischen Relevanz auszugehen ist. McGarrigle et al. <TextLink reference="27"></TextLink> folgend kann vermutet werden, dass sich akute, anstrengende Telefonsituationen &#252;ber den (Berufs-) Alltag kumulativ zu einer Ersch&#246;pfungsreaktion manifestieren k&#246;nnen und dass die hier eingesetzte MFi Technologie zu einer reduzierten Erm&#252;dung f&#252;hren kann. Die diesbez&#252;gliche wissenschaftliche Evidenz ist aber noch unbefriedigend <TextLink reference="31"></TextLink> und bedarf weiterer Forschungsanstrengungen. </Pgraph><Pgraph>Eine Studie von Winneke et al. <TextLink reference="37"></TextLink> zeigte, dass die Ergebnisse eines statisch durchgef&#252;hrten ACALES Verfahrens, die eine reduzierte H&#246;ranstrengung f&#252;r eine der untersuchten Mikrofon-Direktionalit&#228;ten von H&#246;rger&#228;ten aufzeigten, mit einer reduzierten alpha-Band-Aktivit&#228;t von EEG-Messungen (9&#8211;12 Hz) f&#252;r dieselbe Mikrofon-Direktionalit&#228;t einhergingen. Auch in dieser Studie ist zu vermuten, dass die subjektiv erfasste H&#246;ranstrengung mit physiologischen Korrelaten einhergeht und durch das h&#228;ufige Nutzen einer Streaming-Technologie ggf. Nacheffekte wie Erm&#252;dung (Fatigue) durch die physiologische Beanspruchung und Adaptation des H&#246;rsystems bei der Reizverarbeitung reduziert werden k&#246;nnen. Erm&#252;dungsbedingte Beeintr&#228;chtigungen k&#246;nnen zum Beispiel die kognitiven Verarbeitungsf&#228;higkeiten (z. B. Aufmerksamkeit, Verarbeitungsgeschwindigkeit, Ged&#228;chtnis) betreffen <TextLink reference="20"></TextLink>. In zuk&#252;nftigen Studien sollten auch physiologische Messungen, z.B. bei Personen, die im beruflichen Alltag viel telefonieren, parallel durchgef&#252;hrt werden, um die Evidenzlage mentaler Belastungen und deren Nacheffekte im Sinne einer Gegensteuerung durch Mobilisieren von kognitiven Ressourcen zu erh&#228;rten</Pgraph><Pgraph>Besonders der Aspekt der Gebrauchstauglichkeit ist aus einer gesundheitspolitischen Perspektive heraus bedeutsam. Gem&#228;&#223; der ICF-Taxonomie und den &#220;berlegungen von Granberg et al. <TextLink reference="15"></TextLink> ist die Herstellung der Funktionsf&#228;higkeit hinsichtlich der Partizipation, wie bei Konversationen mit einer oder mehreren Personen, wesentlich bei der Versorgung mit H&#246;rhilfen und deren Zubeh&#246;r, wie es bei der MFi-Technologie realisiert wird. Bei der ICF-Taxonomie ist die Partizipation, hier Konversation mit einer Person, eine wesentliche Ergebnisgr&#246;&#223;e und wird durch sogenannte Kontextfaktoren moderiert. Ein Kontextfaktor ist die Versorgung mit H&#246;rhilfen und Zubeh&#246;r, und wenn diese Technologien einfach zu bedienen sind, die Barrieren also gering sind, steigt die Nutzungsbereitschaft wodurch die Teilhabeprozesse ggf. erst erm&#246;glicht oder wahrscheinlicher werden. F&#252;r den beruflichen Kontext, das mittlere Alter dieser Stichprobe lag bei ca. 50 Jahren, ist nicht nur eine erfolgreiche Teilhabe wesentlich, sondern auch die Vermeidung von psychischen Gef&#228;hrdungen, die mittlerweile auch regulatorisch in Deutschland mehr Beachtung finden (&#8222;Gef&#228;hrdungsbeurteilung psychischer Belastungen&#8220;). </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><SubHeadline>Reference condition</SubHeadline><Pgraph>The questionnaire on reference telephony in the present study revealed that 75&#37; of the participants mainly use landline telephones and only 25&#37; use mobile phones. In general, CI users seem to find telephoning with a mobile phone more challenging than telephoning with a landline phone. In a questionnaire study by Anderson et al. <TextLink reference="2"></TextLink>, 71&#37; of CI users felt able to use landline phones to some extent and only 54&#37; used mobile phones (multiple responses). According to the study by Anderson et al. <TextLink reference="2"></TextLink>, talking about familiar topics with family members was the easiest condition and recognising voices was also easier over landlines. Although they made little to no calls on mobile phones in their daily lives, most of the participants in the present study were well able to hold a conversation on a mobile phone, at least in a quiet situation (median score of at least 5 (a lot) on the rating scale from nothing (1) to everything (7) regarding speech understanding).</Pgraph><Pgraph>The reference condition consisted of very heterogeneous, individual solutions, so that the difference values reference&#47;streaming condition scattered more than would have been expected in a laboratory-induced reference condition. The reference condition was deliberately chosen to be diverse, as this allowed the aspect of ecological validity to be considered. Anecdotally, it is reported time and again that persons with profound hearing loss bordering on deafness sometimes use very imaginative &#39;work arounds&#39; for telephony in everyday life, because often no easy-to-use telephone systems are available for the user. Overall, the data show that the MFi technology used in this test has obviously led to a significant improvement and that it is therefore to be expected that this or a comparable technology will enable the troublesome &#8216;work arounds&#8217; to be avoided. </Pgraph><SubHeadline>Sound quality</SubHeadline><Pgraph>Sound quality was perceived to be similar in both conditions. However, using contrast pairs it was found that the voices of the interlocutors were perceived as clearer and closer for the direct streaming than for the reference. The latter may perhaps be because the reference telephony was predominantly made through the microphone of only one of the hearing systems, whereas the streaming telephony is made to both hearing systems in any case. The use of both ears may possibly shift the sound of voices to a more central and thus closer perception. Balfour and Hawkins <TextLink reference="4"></TextLink> investigated the hearing of monaural and bilateral hearing aid users with symmetrical mild or moderate hearing loss using sound quality dimensions (brightness, clarity, volume, loudness, proximity, overall impression, softness, and spaciousness). Their results showed a clear bilateral preference for all eight sound quality dimensions regardless of listening environment. Bilateral preferences were strongest for overall impression, volume, and spaciousness. In a study with bimodal participants <TextLink reference="9"></TextLink>, the presented bimodal listening situation was also perceived as more voluminous, less tinny, and less unpleasant than CI alone. Differences in the evaluation between the reference and streaming condition for some of the contrast pairs in the present study may thus well be due to a different perception caused by the signal presentation, which is mostly unilateral in the reference and bilateral in the streaming condition. </Pgraph><SubHeadline>Usability</SubHeadline><Pgraph>The usability for the streaming condition is better than the reference and is rated as &#8216;excellent&#8217;. This is remarkable as most participants have never used streaming or Bluetooth in the context of telephony before. Only the &#8216;ease of use without professional help&#8217; was rated slightly worse, i.e., not all participants would trust themselves to use the system without help. A possible reason for this is the insecurity of some of the participants in dealing with smartphones, e.g., in view of the fact, that the smartphone and the hearing systems must first be paired. In general, this result gives hope that streaming while talking on the phone can achieve good acceptance among bimodal patients with appropriate instruction by clinical audiologists. </Pgraph><SubHeadline>Speech intelligibility</SubHeadline><Pgraph>The well-known difficulties in studies with bimodal fitting, that the presentation level on the CI side cannot be measured acoustically, led in the present study to the fact that the speech presentation level at or in the ear is unknown for both the reference and the streaming condition. Level data for the speech signal are therefore not absolute (see definition of i-SNR under Procedure and Setup) and must be interpreted with caution. However, by adjusting the speech presentation level for both conditions, the signals were set to be equally loud (at a comfortable level) at least in relation to each other, so that SNR values also became interpretable in relation to each other. In general, the loudness category &#8220;pleasant&#8221; seems to be quite robust and shows only a low intraindividual dispersion in studies <TextLink reference="16"></TextLink>. </Pgraph><Pgraph>Streaming the speech signals into both hearing systems only slightly increased subjective speech intelligibility in the quiet laboratory situation, as the volume of the smartphone was adjusted (turned down) in advance by the participants. Possible effects due to better coupling during streaming were thus compensated for. If this adjustment had not been made, the difference in subjective speech intelligibility would probably have been more pronounced. However, the speech intelligibility tests showed that for a telephone call in a noisy situation, an improvement in speech intelligibility was induced. The speech intelligibility threshold in quiet is significantly influenced by the absolute loudness of the speech signals, while thresholds in noise are influenced by the signal-to-noise ratio and are relatively independent of the absolute loudness over a wide range as long as the signals can be heard well <TextLink reference="33"></TextLink>. The signal-to-noise ratio can be altered by changing the volume of either the speech signal or the noise. Although the volume of the smartphones was chosen differently, the preceding adaptive speech reception thresholds in quiet for the two conditions (i.e., reference and streaming) indicate similar speech presentation levels, as comfortable in both conditions. Therefore, despite the individual adjustment of the speech presentation level by the participants based on the audio book presentation, it can be assumed that the better speech reception thresholds in noise did not result from a significantly higher speech presentation level. Rather, this shows the influence of streaming on the noise. External background noise can be better attenuated and&#47;or also faded out during telephone calls with streamed speech signals. The N6 processor, which most of the participants wore at the reference appointment, has similar signal pre-processing to the N7 processor, which is primarily intended to improve speech intelligibility in noise <TextLink reference="36"></TextLink>. Warren et al. <TextLink reference="36"></TextLink> showed that standard speech intelligibility in quiet and noise (i.e., when speech and, if necessary, noise are presented over loudspeakers) was not significantly different for either signal processor, while direct streaming of the signals also provided an improvement there compared to acoustic telephony. </Pgraph><Pgraph>The results of the present study are consistent with findings of Marcrum et al. <TextLink reference="25"></TextLink>, in whose work streaming significantly improved sentence recognition and reduced hearing difficulties compared to telecoil or acoustic coupling configurations. The results of a study by Wolfe et al. <TextLink reference="38"></TextLink> also indicate that the use of wireless assistive listening technology improves speech intelligibility (words in this case) via mobile phone in quiet and noise compared to performance with acoustic mobile phone in a group of adult CI users. They attributed the improvement in speech intelligibility in noise to, among other things, an improved signal-to-noise ratio due to attenuation of the signal transmitted acoustically through the sound processor microphones and affected by the noise, as well as the presumably more robust signal during streaming compared to acoustic transmission. This also applies to the present study, in which the default setting for streaming was used. In this case, the streamed signals from the smartphone were presented with the signals from the microphones on the speech processor in a mixing ratio of 2:1. As a consequence of the adjusted speech presentation level, this only resulted in a 6 dB attenuated noise level in the streaming condition. The sound of the streamed audio book voice was rated as clearer in the median, indicating a reduction of distortion (by bypassing the smartphone speakers).</Pgraph><Pgraph>The bilateral presentation of the signals in the bimodal streaming condition may also have contributed. In the reference condition of the present study, phone calls were predominantly made with one ear (the smartphone was held to one of the two ears or speech processors). Monaural versus binaural SRTs in noise can differ by about 2 dB SNR in favour of the binaural situation in sentence tests such as the OLSA in normal-hearing participants (unpublished data). When comparing unilateral versus bilateral CI users, Laback et al. <TextLink reference="23"></TextLink> found a small but non-significant improvement of about 0.5 dB with the OLSA (S0N0 condition). Other studies also indicate that speech understanding in noise improves with bilateral presentation or fitting compared to unilateral presentation <TextLink reference="3"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="26"></TextLink>. In the case of bimodal fitting, hearing is provided with two different modalities that deliver complementary information to a certain extent &#8211; for example, in the frequency range. This corresponds to the fact that the sound of the audio book voice in this study tended to be perceived as more pleasant and voluminous in the streaming condition than in the reference condition. Hoppe et al. <TextLink reference="19"></TextLink> found between 0.8 and 1.8 dB improvement in SRTs for patients in the bimodal condition relative to the better ear fitted, depending on the underlying hearing loss on the hearing aid side. </Pgraph><Pgraph>Nevertheless, there also seem to be opposite effects (i.e., the monaural result is better than the binaural result), the so-called binaural interference <TextLink reference="21"></TextLink>. Based on the mixing ratio of the environment (noise) and the streamed speech signal, an improvement of the SRT by at least <TextGroup><PlainText>6 dB</PlainText></TextGroup> would theoretically be possible, but in the present study it is only about 4 dB on average. The fact that the improvement in the signal-to-noise ratio with a bimodal fitting is not necessarily found linearly in the average speech intelligibility could be partly attributed to effects that interfere with the binaural integration of the information of both modalities, especially since in the present study the two different hearing systems were not further fine-tuned (to each other) during the fitting. In addition to the differences in the frequency range, differences in the processing latencies between the two sides (up to <TextGroup><PlainText>9 ms</PlainText></TextGroup> <TextLink reference="39"></TextLink>), for example, cannot be ruled out. The participants also had little time to acclimatise to the new systems. In about 40&#37; of the cases, this may have led to the fact that especially participants with steep speech intelligibility functions and relatively good SRTs for the reference condition did not benefit from the binaural situation, but on the contrary deteriorated.</Pgraph><Pgraph>As already emphasised by Dietz et al. <TextLink reference="11"></TextLink>, there is a tendency to underestimate the hearing benefit based on the change in SRT value if no statements can also be made about the slope of the speech intelligibility curve. Therefore, to interpret the participants&#8217; improvement, it is helpful to additionally use the slope of the speech intelligibility function. Various studies with CI users observed a tendency towards flatter speech intelligibility functions in patients with higher SRTs <TextLink reference="11"></TextLink>, <TextLink reference="17"></TextLink>, <TextLink reference="28"></TextLink>. According to Dietz et al. <TextLink reference="11"></TextLink>, this should be taken into account when considering the clinical improvement of patients&#8217; fluency. The present SRT measurements with simultaneous estimation of the slope showed that the streaming condition also led to significantly steeper slopes of the speech intelligibility curves. In this adaptive procedure, convergence is performed in parallel, once to 20&#37; and once to 80&#37; speech intelligibility <TextLink reference="6"></TextLink>. The threshold for 80&#37; intelligibility is reached at a lower SNR than in the reference condition, while the 20&#37; threshold improves slightly less, thus the function &#8220;tilts&#8221; and becomes steeper. In addition, this gives an indication that the spread in speech intelligibility between different participants in the range of good speech understanding becomes smaller due to the possibility of streaming to both ears. Thus, they become more similar in their ability to communicate via mobile phone due to streaming technology.</Pgraph><Pgraph>Contrary to the conclusion of Hey and colleagues <TextLink reference="17"></TextLink>, we did not observe that low SRT systematically causes adaptive measures not to converge well, at least not according to the procedures used. However, SRTs obtained in the range of a shallow slope have a lower test-retest reliability than SRTs obtained in the range of a steep slope <TextLink reference="17"></TextLink> and must therefore be viewed critically. In our study, after excluding participants with flat speech intelligibility functions, we still saw an average of about 4 dB improvement in speech intelligibility with streaming, but this difference was not significant anymore.</Pgraph><SubHeadline>Listening effort</SubHeadline><Pgraph>It could be shown in this study that there were statistically demonstrable improvements with streaming for both the subjective ratings via the questionnaire and the adaptive procedure ACALES. These effects were somewhat weaker for the questionnaire procedures, since it can be assumed that this procedure is less sensitive, as it has to be averaged over longer periods of time (retrospective or cumulative bias) and the conditions could be varied less. The adaptive procedure ACALES thus showed greater differences. These are mainly found in the range of positive <TextGroup><PlainText>i-SNRs</PlainText></TextGroup>. As the i-SNR decreases, the difference between reference and streaming decreases, which can also be attributed to a reduced audibility of the (telephone) speech signal. </Pgraph><Pgraph>During development of the ACALES method <TextLink reference="22"></TextLink>, users were asked what exactly they understood by listening effort. In contrast to physiological and cognitive processes, where the underlying mechanisms are more implicit, users described that the evaluation of different SNR conditions is about pushing away or blocking out irrelevant information, thus not so much a percept, but a later conscious, explicit evaluation of mental effort. If such auditory mediated efforts occur more frequently, the result is fatigue (cf. McGarrigle et al. <TextLink reference="27"></TextLink>). The results shown here indicate that mental effort could be significantly reduced by streaming technology, especially in the range of a positive SNR relevant to everyday life. These differences were not purely statistical significance measures: At 0 dB i-SNR, listening effort was reduced by an average of three scale points (of thirteen) from &#8216;clearly effortful&#8217; in the reference condition to &#8216;little&#47;moderately effortful&#8217; in the streaming condition, so that on the user side, clinical relevance can also be assumed. Following McGarrigle et al. <TextLink reference="27"></TextLink>, it can be assumed that acute, strenuous telephone situations can cumulatively manifest themselves into a fatigue reaction over the course of (professional) everyday life and that the MFi technology used here can lead to reduced fatigue. However, the scientific evidence in this regard is still unsatisfactory <TextLink reference="31"></TextLink> and requires further research efforts. </Pgraph><Pgraph>A study by Winneke et al. <TextLink reference="37"></TextLink> showed that the results of a statically performed ACALES procedure, which revealed reduced listening effort for one of the investigated microphone directionalities of hearing aids, were accompanied by reduced alpha-band activity of EEG measurements (9&#8211;12 Hz) for the same microphone directionality. In this study, too, it can be assumed that the subjectively recorded listening effort is associated with physiological correlates and that the frequent use of streaming technology may reduce after-effects such as fatigue due to the physiological stress and adaptation of the hearing system during stimulus processing. Fatigue-related impairments can affect, for example, cognitive processing abilities (e.g., attention, processing speed, memory) <TextLink reference="20"></TextLink>. In future studies, physiological measurements should also be carried out in parallel, e.g., in people who use the telephone intensively in their daily work, to corroborate the evidence of mental stress and its after-effects in the sense of counteracting it by mobilising cognitive resources.</Pgraph><Pgraph>The aspect of usability is particularly important from a health policy perspective. According to the ICF taxonomy and the considerations of Granberg et al. <TextLink reference="15"></TextLink>, the establishment of functional ability with regard to participation, as in conversations with one or more persons, is essential in the provision of hearing systems and their accessories, as realised with MFi technology. In the ICF taxonomy, participation, in this case conversation with one person, is an essential outcome variable and is moderated by so-called context factors. One contextual factor is the provision of hearing systems and accessories, and if these technologies are easy to use, i.e., the barriers are low, the willingness to use them increases, which may make the participation processes possible or more likely. For the occupational context (the mean age of this sample was about 50 years), not only is successful participation essential, but also the avoidance of mental hazards, which are now also receiving more regulatory attention in Germany (&#8220;risk assessment of mental stress&#8221;). </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Schlussfolgerungen">
      <MainHeadline>Schlussfolgerungen</MainHeadline><Pgraph>Direktes beidseitiges Streamen kann bimodal versorgten Personen eine relevante Hilfe bei dem Telefonieren mit einem Smartphone sein. Dies zeigt sich vor allem im Hinblick auf Sprachverst&#228;ndlichkeit im St&#246;rger&#228;usch und H&#246;ranstrengung, w&#228;hrend die Klangqualit&#228;t sich nicht verschlechtert im Vergleich zu bislang genutzten Alternativen der Studienpopulation. Die Benutzerfreundlichkeit des Telefonierens mit direktem (bilateralem) Streamen wird als hoch eingesch&#228;tzt und scheint besser zu sein als die meisten von bimodal versorgten H&#246;rsystemnutzern bislang benutzten Alternativen.</Pgraph><Pgraph>Das Streamen der Signale hilft bimodal versorgten Personen beim Telefonieren mit dem Smartphone und hat das Potenzial, die Partizipationsf&#228;higkeit des Patienten im privaten und beruflichen Umfeld zu erh&#246;hen. Durch die Reduktion von mentalen Belastungen und Nacheffekten bei gleichzeitiger Verbesserung der Kommunikationsf&#228;higkeit ist davon auszugehen, dass die hier gepr&#252;fte Technologie in kommunikationsintensiven Berufen gesundheits&#246;konomisch auch f&#252;r die Kostentr&#228;ger und Unternehmen relevant ist.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusions">
      <MainHeadline>Conclusions</MainHeadline><Pgraph>Direct bilateral streaming can be a relevant help for bimodal listeners when using a smartphone. This is particularly evident with regard to speech intelligibility in noise and listening effort, while sound quality does not deteriorate compared to previously used alternatives in the study population. The usability of telephoning with direct (bilateral) streaming is rated high and seems to be better than most alternatives used by bimodal listeners so far.</Pgraph><Pgraph>Streaming helps bimodal listeners to make phone calls with their smartphones and has the potential to increase their ability to participate in their private and professional lives. By reducing mental stress and after-effects while improving communication skills, it can be assumed that the technology tested here in communication-intensive professions is also relevant in health economic terms for payers and companies.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkungen">
      <MainHeadline>Anmerkungen</MainHeadline><SubHeadline>Interessenkonflikte</SubHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben. </Pgraph><Pgraph>Die Autoren Hessel H und Meis M sind Mitarbeiter bei Cochlear Deutschland GmbH &#38; Co.KG., Meis M erst seit 08&#47;2022. </Pgraph><SubHeadline>Finanzierung</SubHeadline><Pgraph>Diese Arbeit wurde durch finanzielle Mittel der Cochlear Deutschland GmbH &#38; Co. KG. erm&#246;glicht.</Pgraph><SubHeadline>Danksagung </SubHeadline><Pgraph>Vielen Dank an die Patienten und das Team der Universit&#228;tsklinik f&#252;r Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universit&#228;t Oldenburg&#33;</Pgraph><SubHeadline>Gender-Hinweis</SubHeadline><Pgraph>In diesem Beitrag wird aus Gr&#252;nden der besseren Lesbarkeit das generische Maskulinum verwendet. Weibliche und anderweitige Geschlechteridentit&#228;ten sind dabei jedoch ausdr&#252;cklich mitgemeint.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Notes">
      <MainHeadline>Notes</MainHeadline><SubHeadline>Conflicts of interest</SubHeadline><Pgraph>The authors declare that they have no conflicts of interest related to this article.</Pgraph><Pgraph>The authors Hessel H and Meis M are employees of Cochlear Deutschland GmbH &#38; Co. KG., Meis M since 08&#47;2022.     </Pgraph><SubHeadline>Funding </SubHeadline><Pgraph>This work was supported by funding from Cochlear Deutschland GmbH &#38; Co. KG.  </Pgraph><SubHeadline>Acknowledgements </SubHeadline><Pgraph>Many thanks to the patients and the team of the University Department of Otorhinolaryngology at the Evangelisches Krankenhaus Oldenburg, Carl von Ossietzky University Oldenburg&#33;</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Ahrlich M</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2013</RefYear>
        <RefBookTitle>Optimierung und Evaluation des Oldenburger Satztests mit weiblicher Sprecherin und Untersuchung des Effekts des Sprechers auf die Sprachverst&#228;ndlichkeit &#91;Bachelorarbeit&#93;</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Ahrlich M. Optimierung und Evaluation des Oldenburger Satztests mit weiblicher Sprecherin und Untersuchung des Effekts des Sprechers auf die Sprachverst&#228;ndlichkeit &#91;Bachelorarbeit&#93;. Oldenburg: Carl von Ossietzky Universit&#228;t Oldenburg; 2013.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Anderson I</RefAuthor>
        <RefAuthor>Baumgartner WD</RefAuthor>
        <RefAuthor>B&#246;heim K</RefAuthor>
        <RefAuthor>Nahler A</RefAuthor>
        <RefAuthor>Arnoldner C</RefAuthor>
        <RefAuthor>Arnolder C</RefAuthor>
        <RefAuthor>D&#8217;Haese P</RefAuthor>
        <RefTitle>Telephone use: what benefit do cochlear implant users receive&#63;</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>446-53</RefPage>
        <RefTotal>Anderson I, Baumgartner WD, B&#246;heim K, Nahler A, Arnoldner C, Arnolder C, D&#8217;Haese P. Telephone use: what benefit do cochlear implant users receive&#63; Int J Audiol. 2006 Aug;45(8):446-53. DOI: 10.1080&#47;14992020600690969</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;14992020600690969</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Asp F</RefAuthor>
        <RefAuthor>M&#228;ki-Torkko E</RefAuthor>
        <RefAuthor>Karltorp E</RefAuthor>
        <RefAuthor>Harder H</RefAuthor>
        <RefAuthor>Hergils L</RefAuthor>
        <RefAuthor>Eskilsson G</RefAuthor>
        <RefAuthor>Stenfelt S</RefAuthor>
        <RefTitle>Bilateral versus unilateral cochlear implants in children: speech recognition, sound localization, and parental reports</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>817-32</RefPage>
        <RefTotal>Asp F, M&#228;ki-Torkko E, Karltorp E, Harder H, Hergils L, Eskilsson G, Stenfelt S. Bilateral versus unilateral cochlear implants in children: speech recognition, sound localization, and parental reports. Int J Audiol. 2012 Nov;51(11):817-32. DOI: 10.3109&#47;14992027.2012.705898</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2012.705898</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Balfour PB</RefAuthor>
        <RefAuthor>Hawkins DB</RefAuthor>
        <RefTitle>A comparison of sound quality judgments for monaural and binaural hearing aid processed stimuli</RefTitle>
        <RefYear>1992</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>331-9</RefPage>
        <RefTotal>Balfour PB, Hawkins DB. A comparison of sound quality judgments for monaural and binaural hearing aid processed stimuli. Ear Hear. 1992 Oct;13(5):331-9. DOI: 10.1097&#47;00003446-199210000-00010</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00003446-199210000-00010</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Bangor A</RefAuthor>
        <RefAuthor>Kortum P</RefAuthor>
        <RefAuthor>Miller J</RefAuthor>
        <RefTitle>Determining What Individual SUS Scores Mean: Adding an Adjective Rating Scale</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>J Usability Stud</RefJournal>
        <RefPage>114-23</RefPage>
        <RefTotal>Bangor A, Kortum P, Miller J. Determining What Individual SUS Scores Mean: Adding an Adjective Rating Scale. J Usability Stud. 2009;4:114-23.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Efficient adaptive procedures for threshold and concurrent slope estimates for psychophysics and speech intelligibility tests</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>2801-10</RefPage>
        <RefTotal>Brand T, Kollmeier B. Efficient adaptive procedures for threshold and concurrent slope estimates for psychophysics and speech intelligibility tests. J Acoust Soc Am. 2002 Jun;111(6):2801-10. DOI: 10.1121&#47;1.1479152</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.1479152</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Brooke J</RefAuthor>
        <RefTitle>SUS &#8211; a quick and dirty usability scale</RefTitle>
        <RefYear>1996</RefYear>
        <RefBookTitle>Usability Evaluation in Industry</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Brooke J. SUS &#8211; a quick and dirty usability scale. In: Jordan PW, Thomas B, Weerdmeester BA, McClelland AL, Hrsg. Usability Evaluation in Industry. London: Taylor and Francis; 1996.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Clinkard D</RefAuthor>
        <RefAuthor>Shipp D</RefAuthor>
        <RefAuthor>Friesen LM</RefAuthor>
        <RefAuthor>Stewart S</RefAuthor>
        <RefAuthor>Ostroff J</RefAuthor>
        <RefAuthor>Chen JM</RefAuthor>
        <RefAuthor>Nedzelski JM</RefAuthor>
        <RefAuthor>Lin VY</RefAuthor>
        <RefTitle>Telephone use and the factors influencing it among cochlear implant patients</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Cochlear Implants Int</RefJournal>
        <RefPage>140-6</RefPage>
        <RefTotal>Clinkard D, Shipp D, Friesen LM, Stewart S, Ostroff J, Chen JM, Nedzelski JM, Lin VY. Telephone use and the factors influencing it among cochlear implant patients. Cochlear Implants Int. 2011 Aug;12(3):140-6. DOI: 10.1179&#47;146701011X12998393351321</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1179&#47;146701011X12998393351321</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Devocht EMJ</RefAuthor>
        <RefAuthor>Janssen AML</RefAuthor>
        <RefAuthor>Chalupper J</RefAuthor>
        <RefAuthor>Stokroos RJ</RefAuthor>
        <RefAuthor>George ELJ</RefAuthor>
        <RefTitle>The Benefits of Bimodal Aiding on Extended Dimensions of Speech Perception: Intelligibility, Listening Effort, and Sound Quality</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Trends Hear</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Devocht EMJ, Janssen AML, Chalupper J, Stokroos RJ, George ELJ. The Benefits of Bimodal Aiding on Extended Dimensions of Speech Perception: Intelligibility, Listening Effort, and Sound Quality. Trends Hear. 2017 Jan-Dec;21. DOI: 10.1177&#47;2331216517727900</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;2331216517727900</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Dietz A</RefAuthor>
        <RefAuthor>Buscherm&#246;hle M</RefAuthor>
        <RefAuthor>Sivonen V</RefAuthor>
        <RefAuthor>Willberg T</RefAuthor>
        <RefAuthor>Aarnisalo AA</RefAuthor>
        <RefAuthor>Lenarz T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Characteristics and international comparability of the Finnish matrix sentence test in cochlear implant recipients</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>80-7</RefPage>
        <RefTotal>Dietz A, Buscherm&#246;hle M, Sivonen V, Willberg T, Aarnisalo AA, Lenarz T, Kollmeier B. Characteristics and international comparability of the Finnish matrix sentence test in cochlear implant recipients. Int J Audiol. 2015;54 Suppl 2:80-7. DOI: 10.3109&#47;14992027.2015.1070309</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2015.1070309</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Domingo Y</RefAuthor>
        <RefAuthor>Holmes E</RefAuthor>
        <RefAuthor>Johnsrude IS</RefAuthor>
        <RefTitle>The benefit to speech intelligibility of hearing a familiar voice</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>J Exp Psychol Appl</RefJournal>
        <RefPage>236-47</RefPage>
        <RefTotal>Domingo Y, Holmes E, Johnsrude IS. The benefit to speech intelligibility of hearing a familiar voice. J Exp Psychol Appl. 2020 Jun;26(2):236-47. DOI: 10.1037&#47;xap0000247</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;xap0000247</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Feuerstein JF</RefAuthor>
        <RefTitle>Monaural versus binaural hearing: ease of listening, word recognition, and attentional effort</RefTitle>
        <RefYear>1992</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>80-6</RefPage>
        <RefTotal>Feuerstein JF. Monaural versus binaural hearing: ease of listening, word recognition, and attentional effort. Ear Hear. 1992 Apr;13(2):80-6.</RefTotal>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Freyaldenhoven MC</RefAuthor>
        <RefAuthor>Plyler PN</RefAuthor>
        <RefAuthor>Thelin JW</RefAuthor>
        <RefAuthor>Burchfield SB</RefAuthor>
        <RefTitle>Acceptance of noise with monaural and binaural amplification</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>659-66</RefPage>
        <RefTotal>Freyaldenhoven MC, Plyler PN, Thelin JW, Burchfield SB. Acceptance of noise with monaural and binaural amplification. J Am Acad Audiol. 2006 Oct;17(9):659-66. DOI: 10.3766&#47;jaaa.17.9.5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.17.9.5</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Granberg S</RefAuthor>
        <RefAuthor>M&#246;ller K</RefAuthor>
        <RefAuthor>Skagerstrand A</RefAuthor>
        <RefAuthor>M&#246;ller C</RefAuthor>
        <RefAuthor>Danermark B</RefAuthor>
        <RefTitle>The ICF Core Sets for hearing loss: researcher perspective, Part II: Linking outcome measures to the International Classification of Functioning, Disability and Health (ICF)</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>77-87</RefPage>
        <RefTotal>Granberg S, M&#246;ller K, Skagerstrand A, M&#246;ller C, Danermark B. The ICF Core Sets for hearing loss: researcher perspective, Part II: Linking outcome measures to the International Classification of Functioning, Disability and Health (ICF). Int J Audiol. 2014 Feb;53(2):77-87. DOI: 10.3109&#47;14992027.2013.858279</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2013.858279</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Hawley ML</RefAuthor>
        <RefAuthor>Sherlock LP</RefAuthor>
        <RefAuthor>Formby C</RefAuthor>
        <RefTitle>Intra- and Intersubject Variability in Audiometric Measures and Loudness Judgments in Older Listeners with Normal Hearing</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Semin Hear</RefJournal>
        <RefPage>3-25</RefPage>
        <RefTotal>Hawley ML, Sherlock LP, Formby C. Intra- and Intersubject Variability in Audiometric Measures and Loudness Judgments in Older Listeners with Normal Hearing. Semin Hear. 2017 Feb;38(1):3-25. DOI: 10.1055&#47;s-0037-1598063</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1055&#47;s-0037-1598063</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Hey M</RefAuthor>
        <RefAuthor>Hocke T</RefAuthor>
        <RefAuthor>Hedderich J</RefAuthor>
        <RefAuthor>M&#252;ller-Deile J</RefAuthor>
        <RefTitle>Investigation of a matrix sentence test in noise: reproducibility and discrimination function in cochlear implant patients</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>895&#8211;902</RefPage>
        <RefTotal>Hey M, Hocke T, Hedderich J, M&#252;ller-Deile J. Investigation of a matrix sentence test in noise: reproducibility and discrimination function in cochlear implant patients. Int J Audiol. 2014;53(12):895&#8211;902. DOI: 10.3109&#47;14992027.2014.938368</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2014.938368</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Holmes E</RefAuthor>
        <RefAuthor>Domingo Y</RefAuthor>
        <RefAuthor>Johnsrude IS</RefAuthor>
        <RefTitle>Familiar Voices Are More Intelligible, Even if They Are Not Recognized as Familiar</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Psychol Sci</RefJournal>
        <RefPage>1575-83</RefPage>
        <RefTotal>Holmes E, Domingo Y, Johnsrude IS. Familiar Voices Are More Intelligible, Even if They Are Not Recognized as Familiar. Psychol Sci. 2018 10;29(10):1575-83. DOI: 10.1177&#47;0956797618779083</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;0956797618779083</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Hornsby BW</RefAuthor>
        <RefAuthor>Naylor G</RefAuthor>
        <RefAuthor>Bess FH</RefAuthor>
        <RefTitle>A Taxonomy of Fatigue Concepts and Their Relation to Hearing Loss</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>136S-44S</RefPage>
        <RefTotal>Hornsby BW, Naylor G, Bess FH. A Taxonomy of Fatigue Concepts and Their Relation to Hearing Loss. Ear Hear. 2016 Jul-Aug;37 Suppl 1:136S-44S. DOI: 10.1097&#47;AUD.0000000000000289</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;AUD.0000000000000289</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Hoppe U</RefAuthor>
        <RefAuthor>Hocke T</RefAuthor>
        <RefAuthor>Digeser F</RefAuthor>
        <RefTitle>Bimodal benefit for cochlear implant listeners with different grades of hearing loss in the opposite ear</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Acta Otolaryngol</RefJournal>
        <RefPage>713-21</RefPage>
        <RefTotal>Hoppe U, Hocke T, Digeser F. Bimodal benefit for cochlear implant listeners with different grades of hearing loss in the opposite ear. Acta Otolaryngol. 2018 Aug;138(8):713-21. DOI: 10.1080&#47;00016489.2018.1444281</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;00016489.2018.1444281</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Jerger J</RefAuthor>
        <RefAuthor>Silman S</RefAuthor>
        <RefAuthor>Silverman C</RefAuthor>
        <RefAuthor>Emmer M</RefAuthor>
        <RefTitle>Binaural Interference: Quo Vadis&#63;</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>266-70</RefPage>
        <RefTotal>Jerger J, Silman S, Silverman C, Emmer M. Binaural Interference: Quo Vadis&#63; J Am Acad Audiol. 2017 Apr;28(4):266-70. DOI: 10.3766&#47;jaaa.28.4.1</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.28.4.1</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Krueger M</RefAuthor>
        <RefAuthor>Schulte M</RefAuthor>
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefTitle>Development of an adaptive scaling method for subjective listening effort</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>4680</RefPage>
        <RefTotal>Krueger M, Schulte M, Brand T, Holube I. Development of an adaptive scaling method for subjective listening effort. J Acoust Soc Am. 2017 06;141(6):4680. DOI: 10.1121&#47;1.4986938</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.4986938</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Laback B</RefAuthor>
        <RefAuthor>Pok SM</RefAuthor>
        <RefAuthor>Schmid K</RefAuthor>
        <RefAuthor>Deutsch WA</RefAuthor>
        <RefAuthor>Baumgartner WD</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2002</RefYear>
        <RefBookTitle>Efficiency of binaural cues in a bilateral cochlear implant listener</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Laback B, Pok SM, Schmid K, Deutsch WA, Baumgartner WD. Efficiency of binaural cues in a bilateral cochlear implant listener. 2002. Available from: http:&#47;&#47;www.sea-acustica.es&#47;index.php&#63;id&#61;301</RefTotal>
        <RefLink>http:&#47;&#47;www.sea-acustica.es&#47;index.php&#63;id&#61;301</RefLink>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Lenarz T</RefAuthor>
        <RefTitle>Cochlear implant - state of the art</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>GMS Curr Top Otorhinolaryngol Head Neck Surg</RefJournal>
        <RefPage>Doc04</RefPage>
        <RefTotal>Lenarz T. Cochlear implant - state of the art. GMS Curr Top Otorhinolaryngol Head Neck Surg. 2018 Feb 19;16:Doc04. DOI: 10.3205&#47;cto000143</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;cto000143</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Marcrum SC</RefAuthor>
        <RefAuthor>Picou EM</RefAuthor>
        <RefAuthor>Steffens T</RefAuthor>
        <RefTitle>Avoiding disconnection: An evaluation of telephone options for cochlear implant users</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>186-93</RefPage>
        <RefTotal>Marcrum SC, Picou EM, Steffens T. Avoiding disconnection: An evaluation of telephone options for cochlear implant users. Int J Audiol. 2017 03;56(3):186-93. DOI: 10.1080&#47;14992027.2016.1247502</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;14992027.2016.1247502</RefLink>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>McArdle RA</RefAuthor>
        <RefAuthor>Killion M</RefAuthor>
        <RefAuthor>Mennite MA</RefAuthor>
        <RefAuthor>Chisolm TH</RefAuthor>
        <RefTitle>Are two ears not better than one&#63;</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>171-81</RefPage>
        <RefTotal>McArdle RA, Killion M, Mennite MA, Chisolm TH. Are two ears not better than one&#63; J Am Acad Audiol. 2012 Mar;23(3):171-81. DOI: 10.3766&#47;jaaa.23.3.4</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.23.3.4</RefLink>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>McGarrigle R</RefAuthor>
        <RefAuthor>Munro KJ</RefAuthor>
        <RefAuthor>Dawes P</RefAuthor>
        <RefAuthor>Stewart AJ</RefAuthor>
        <RefAuthor>Moore DR</RefAuthor>
        <RefAuthor>Barry JG</RefAuthor>
        <RefAuthor>Amitay S</RefAuthor>
        <RefTitle>Listening effort and fatigue: what exactly are we measuring&#63; A British Society of Audiology Cognition in Hearing Special Interest Group &#39;white paper&#39;</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>433-40</RefPage>
        <RefTotal>McGarrigle R, Munro KJ, Dawes P, Stewart AJ, Moore DR, Barry JG, Amitay S. Listening effort and fatigue: what exactly are we measuring&#63; A British Society of Audiology Cognition in Hearing Special Interest Group &#39;white paper&#39;. Int J Audiol. 2014 Jul;53(7):433-40. DOI: 10.3109&#47;14992027.2014.890296</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2014.890296</RefLink>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>M&#252;ller-Deile J</RefAuthor>
        <RefTitle>Sprachverst&#228;ndlichkeitsuntersuchungen bei Kochleaimplantatpatienten</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>HNO</RefJournal>
        <RefPage>580-92</RefPage>
        <RefTotal>M&#252;ller-Deile J. Sprachverst&#228;ndlichkeitsuntersuchungen bei Kochleaimplantatpatienten &#91;Speech intelligibility tests in cochlear implant patients&#93;. HNO. 2009 Jun;57(6):580-92. DOI: 10.1007&#47;s00106-009-1930-3</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s00106-009-1930-3</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Picou EM</RefAuthor>
        <RefAuthor>Ricketts TA</RefAuthor>
        <RefTitle>Comparison of wireless and acoustic hearing aid-based telephone listening strategies</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>209-20</RefPage>
        <RefTotal>Picou EM, Ricketts TA. Comparison of wireless and acoustic hearing aid-based telephone listening strategies. Ear Hear. 2011 Mar-Apr;32(2):209-20. DOI: 10.1097&#47;AUD.0b013e3181f53737</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;AUD.0b013e3181f53737</RefLink>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Picou EM</RefAuthor>
        <RefAuthor>Ricketts TA</RefAuthor>
        <RefTitle>Efficacy of hearing-aid based telephone strategies for listeners with moderate-to-severe hearing loss</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>J Am Acad Audiol</RefJournal>
        <RefPage>59-70</RefPage>
        <RefTotal>Picou EM, Ricketts TA. Efficacy of hearing-aid based telephone strategies for listeners with moderate-to-severe hearing loss. J Am Acad Audiol. 2013 Jan;24(1):59-70. DOI: 10.3766&#47;jaaa.24.1.7</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3766&#47;jaaa.24.1.7</RefLink>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Schulte M</RefAuthor>
        <RefAuthor>Heeren J</RefAuthor>
        <RefAuthor>Mirkovic B</RefAuthor>
        <RefAuthor>Meis M</RefAuthor>
        <RefAuthor>Latzel M</RefAuthor>
        <RefTitle>Helfen H&#246;rger&#228;te die H&#246;rerm&#252;dung zu reduzieren&#63;</RefTitle>
        <RefYear>2020</RefYear>
        <RefBookTitle>23. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie. K&#246;ln, 03.-04.09.2020</RefBookTitle>
        <RefPage>Doc147</RefPage>
        <RefTotal>Schulte M, Heeren J, Mirkovic B, Meis M, Latzel M. Helfen H&#246;rger&#228;te die H&#246;rerm&#252;dung zu reduzieren&#63; In: Deutsche Gesellschaft f&#252;r Audiologie e.V., Hrsg. 23. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie. K&#246;ln, 03.-04.09.2020. D&#252;sseldorf: German Medical Science GMS Publishing House; 2020. Doc147. DOI: 10.3205&#47;20dga147</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;20dga147</RefLink>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>Sousa AF</RefAuthor>
        <RefAuthor>Couto MIV</RefAuthor>
        <RefAuthor>Martinho-Carvalho AC</RefAuthor>
        <RefTitle>Quality of life and cochlear implant: results in adults with postlingual hearing loss</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Braz J Otorhinolaryngol</RefJournal>
        <RefPage>494-9</RefPage>
        <RefTotal>Sousa AF, Couto MIV, Martinho-Carvalho AC. Quality of life and cochlear implant: results in adults with postlingual hearing loss. Braz J Otorhinolaryngol. 2018 Jul - Aug;84(4):494-9. DOI: 10.1016&#47;j.bjorl.2017.06.005</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.bjorl.2017.06.005</RefLink>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>Wagener KC</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear></RefYear>
        <RefBookTitle>Factors influencing sentence intelligibility in noise &#91;Dissertation&#93;</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Wagener KC. Factors influencing sentence intelligibility in noise &#91;Dissertation&#93;. Oldenburg: Carl von Ossietzky Universit&#228;t Oldenburg, bis-Verlag; 2004</RefTotal>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>Wagener KC</RefAuthor>
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache III: Evaluation des Oldenburger Satztests</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>86-95</RefPage>
        <RefTotal>Wagener KC, Brand T, Kollmeier B. Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache III: Evaluation des Oldenburger Satztests. Z Audiol. 1999;38(3):86-95.</RefTotal>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>Wagener KC</RefAuthor>
        <RefAuthor>Hochmuth S</RefAuthor>
        <RefAuthor>Ahrlich M</RefAuthor>
        <RefAuthor>Zokoll MA</RefAuthor>
        <RefAuthor>Kollmeier K</RefAuthor>
        <RefTitle>Der weibliche Oldenburger Satztest</RefTitle>
        <RefYear>2014</RefYear>
        <RefBookTitle>Abstracts der 17. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie &#91;CD-Rom&#93;</RefBookTitle>
        <RefPage></RefPage>
        <RefISBN>978-3-939296-06-5</RefISBN>
        <RefTotal>Wagener KC, Hochmuth S, Ahrlich M, Zokoll MA, Kollmeier K. Der weibliche Oldenburger Satztest. In: Deutsche Gesellschaft f&#252;r Audiologie e. V., Hrsg. Abstracts der 17. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie &#91;CD-Rom&#93;; 2014. ISBN: 978-3-939296-06-5</RefTotal>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Warren CD</RefAuthor>
        <RefAuthor>Nel E</RefAuthor>
        <RefAuthor>Boyd PJ</RefAuthor>
        <RefTitle>Controlled comparative clinical trial of hearing benefit outcomes for users of the Cochlear&#8482; Nucleus&#174; 7 Sound Processor with mobile connectivity, Cochlear Implants International</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Cochlear Implants Int</RefJournal>
        <RefPage>116-26</RefPage>
        <RefTotal>Warren CD, Nel E, Boyd PJ. Controlled comparative clinical trial of hearing benefit outcomes for users of the Cochlear&#8482; Nucleus&#174; 7 Sound Processor with mobile connectivity, Cochlear Implants International. Cochlear Implants Int. 2019 05;20(3):116-26. DOI: 10.1080&#47;14670100.2019.1572984</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;14670100.2019.1572984</RefLink>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>Winneke AH</RefAuthor>
        <RefAuthor>Schulte M</RefAuthor>
        <RefAuthor>Vormann M</RefAuthor>
        <RefAuthor>Latzel M</RefAuthor>
        <RefTitle>Effect of Directional Microphone Technology in Hearing Aids on Neural Correlates of Listening and Memory Effort: An Electroencephalographic Study</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Trends Hear</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Winneke AH, Schulte M, Vormann M, Latzel M. Effect of Directional Microphone Technology in Hearing Aids on Neural Correlates of Listening and Memory Effort: An Electroencephalographic Study. Trends Hear. 2020 Jan-Dec;24. DOI: 10.1177&#47;2331216520948410</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;2331216520948410</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>DGHNO</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>Wei&#223;buch &#8211; Cochlea-Implantat (CI)-Versorgung Empfehlungen</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>DGHNO. Wei&#223;buch &#8211; Cochlea-Implantat (CI)-Versorgung Empfehlungen. 2018.</RefTotal>
      </Reference>
      <Reference refNo="38">
        <RefAuthor>Wolfe J</RefAuthor>
        <RefAuthor>Morais Duke M</RefAuthor>
        <RefAuthor>Schafer E</RefAuthor>
        <RefAuthor>Cire G</RefAuthor>
        <RefAuthor>Menapace C</RefAuthor>
        <RefAuthor>O&#8217;Neill L</RefAuthor>
        <RefTitle>Evaluation of a wireless audio streaming accessory to improve mobile telephone performance of cochlear implant users</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Int J Audiol</RefJournal>
        <RefPage>75-82</RefPage>
        <RefTotal>Wolfe J, Morais Duke M, Schafer E, Cire G, Menapace C, O&#8217;Neill L. Evaluation of a wireless audio streaming accessory to improve mobile telephone performance of cochlear implant users. Int J Audiol. 2016;55(2):75-82. DOI: 10.3109&#47;14992027.2015.1095359</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;14992027.2015.1095359</RefLink>
      </Reference>
      <Reference refNo="39">
        <RefAuthor>Zirn S</RefAuthor>
        <RefAuthor>Angermeier J</RefAuthor>
        <RefAuthor>Arndt S</RefAuthor>
        <RefAuthor>Aschendorff A</RefAuthor>
        <RefAuthor>Wesarg T</RefAuthor>
        <RefTitle>Reducing the Device Delay Mismatch Can Improve Sound Localization in Bimodal Cochlear Implant&#47;Hearing-Aid Users</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Trends Hear</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Zirn S, Angermeier J, Arndt S, Aschendorff A, Wesarg T. Reducing the Device Delay Mismatch Can Improve Sound Localization in Bimodal Cochlear Implant&#47;Hearing-Aid Users. Trends Hear. 2019 Jan-Dec;23. DOI: 10.1177&#47;2331216519843876</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;2331216519843876</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="530" width="862">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Abfolge der Messungen f&#252;r T1 (Referenz-Telefonie) und T2 (mit direktem Streaming); Messungen sind grau und Aktionen schwarz umrandet. </Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Sequence of measurements for T1 (reference telephony) and T2 (with direct streaming); measurements are outlined in gray and actions in black.</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="326" width="935">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: A: Bewertungen der Gesamtzufriedenheit f&#252;r das Telefonat mit Versuchsleiter (VL) und die H&#246;rbuch-Kondition (HB). B: Bewertung der subjektiven H&#246;ranstrengung f&#252;r die beiden Telefon-Konditionen (VL, N&#61;20; HB, N&#61;19). In wei&#223; sind die Ergebnisse f&#252;r die Referenzkondition und in hellgrau die Ergebnisse f&#252;r die Streaming-Kondition dargestellt. Abgebildet sind Box Plots (Median und Quartile) mit Whiskern vom Minimum bis zum Maximum der Daten.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 2: A: Ratings of overall satisfaction for the telephone call with the test leader (TL) and the audio book condition (AB). B: ratings of subjective listening effort for the two phone conditions (TL, N&#61;20; AB, N&#61;19). Results for the reference condition are shown in white and results for the streaming condition are shown in light gray. Boxplots (median and quartiles) with whiskers from the minimum to the maximum of the data are shown.</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="285" width="620">
          <MediaNo>3</MediaNo>
          <MediaID language="de">3de</MediaID>
          <MediaID language="en">3en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 3: A: Mittlere Sprachverst&#228;ndlichkeitsschwellen (SVS) im St&#246;rger&#228;usch in dB i-SNR und interindividuelle Standardabweichungen f&#252;r Referenz- und Streaming-Bedingungen aus Messungen mit gleichzeitiger Absch&#228;tzung der Steigung. B: Mittlere Sprachverst&#228;ndlichkeitsfunktionen f&#252;r die Referenz- (durchgezogene Linie) und Streaming-Bedingung (gepunktete Linie). Aufgrund der Lesbarkeit werden nicht alle individuellen Funktionen f&#252;r beide Konditionen (insgesamt 34 Funktionen) dargestellt.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 3: A: Mean speech reception thresholds (SRTs) in noise in dB i-SNR and interindividual standard deviations for reference and streaming conditions from measurements with simultaneous slope estimation. B: Mean speech intelligibility functions for the reference (solid line) and streaming (dotted line) conditions. Due to readability, not all individual functions for both conditions (34 functions in total) are shown.</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="322" width="490">
          <MediaNo>4</MediaNo>
          <MediaID language="de">4de</MediaID>
          <MediaID language="en">4en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 4: Mittlere H&#246;ranstrengungsbewertungen (effort scale categorical units, ESCUs) von 10 Teilnehmenden und die Referenz-Linie (durchgezogen), sowie Streaming-Bedingung (gestrichelte Linie) als Funktion des Signal-Rauschabstandes (i-SNR) von S&#228;tzen und St&#246;rger&#228;usch; die Bereiche um die mittleren Funktionen herum zeigen die Streuung (Standardabweichung). Die ESCU reichen von 1&#61;&#8222;&#252;berhaupt nicht&#8220; anstrengend bis 13&#61;&#8222;extrem anstrengend&#8220;, zus&#228;tzlich gibt es die Antwortkategorie &#8216;nur St&#246;rger&#228;usch&#8217; (o.n.).  </Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 4: Mean listening effort ratings (effort scale categorical units, ESCUs) of 10 participants and the reference (solid line), and streaming condition (dashed line) as a function of signal-to-noise ratio (i-SNR) of sentences and noise; the areas around the mean functions show the spread (standard deviation). The ESCU range from 1&#61;&#8220;effortless&#8221; to 13&#61;&#8220;extremely effortful&#8221;; in addition, there is the response category &#8216;noise only&#8217; (no).</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="397" width="835">
          <MediaNo>5</MediaNo>
          <MediaID language="de">5de</MediaID>
          <MediaID language="en">5en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 5: Ergebnisse f&#252;r den vergleichenden Fragebogen (Streaming- im Vergleich zur Referenz-Kondition) zur Benutzerfreundlichkeit (SUS&#95;comp); N&#61;19; abgebildet sind Box Plots (Median und Quartile) mit Whiskern vom Minimum bis zum Maximum der Daten.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 5: Results for the comparative questionnaire (streaming vs. reference condition) on usability (SUS&#95;comp); N&#61;19; shown are box plots (median and quartiles) with whiskers from minimum to maximum of data.</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>5</NoOfPictures>
      </Figures>
      <InlineFigures>
        <Figure format="png" height="32" width="221">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <AltText language="de">Gleichung 1</AltText>
          <AltText language="en">Equation 1</AltText>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>