<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zaud000010</Identifier>
    <IdentifierDoi>10.3205/zaud000010</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zaud0000108</IdentifierUrn>
    <ArticleType language="de">Originalarbeit</ArticleType>
    <ArticleType language="en">Research Article</ArticleType>
    <TitleGroup>
      <Title language="de">Implementierung und Evaluation einer akustischen Raumsimulation f&#252;r audiologische Testungen</Title>
      <TitleTranslated language="en">Implementation and evaluation of acoustic room simulation for audiological testing</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Eichenauer</Lastname>
          <LastnameHeading>Eichenauer</LastnameHeading>
          <Firstname>Anja</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address language="de">Audiologische Akustik, Klinik f&#252;r HNO-Heilkunde, Universit&#228;tsklinikum Frankfurt am Main, Theodor-Stern-Kai 7, 60590 Frankfurt am Main, Deutschland, Tel.: &#43; 49 69 6301 7804<Affiliation>Audiologische Akustik, Klinik f&#252;r HNO-Heilkunde, Universit&#228;tsklinikum Frankfurt am Main, Deutschland</Affiliation></Address>
        <Address language="en">Audiological Acoustics, Clinic for Otolaryngology, University Hospital Frankfurt am Main, Theodor-Stern-Kai 7, 60590 Frankfurt am Main, Germany, Phone: &#43;49 69 6301 7804<Affiliation>Audiological Acoustics, Clinic for Otolaryngology, University Hospital Frankfurt am Main, Germany</Affiliation></Address>
        <Email>anja.eichenauer&#64;kgu.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Baumann</Lastname>
          <LastnameHeading>Baumann</LastnameHeading>
          <Firstname>Uwe</Firstname>
          <Initials>U</Initials>
        </PersonNames>
        <Address language="de">Audiologische Akustik, Klinik f&#252;r HNO-Heilkunde, Universit&#228;tsklinikum Frankfurt am Main, Deutschland<Affiliation>Audiologische Akustik, Klinik f&#252;r HNO-Heilkunde, Universit&#228;tsklinikum Frankfurt am Main, Deutschland</Affiliation></Address>
        <Address language="en">Audiological Acoustics, Clinic for Otolaryngology, University Hospital Frankfurt am Main, Germany<Affiliation>Audiological Acoustics, Clinic for Otolaryngology, University Hospital Frankfurt am Main, Germany</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Wei&#223;gerber</Lastname>
          <LastnameHeading>Wei&#223;gerber</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address language="de">Audiologische Akustik, Klinik f&#252;r HNO-Heilkunde, Universit&#228;tsklinikum Frankfurt am Main, Deutschland<Affiliation>Audiologische Akustik, Klinik f&#252;r HNO-Heilkunde, Universit&#228;tsklinikum Frankfurt am Main, Deutschland</Affiliation></Address>
        <Address language="en">Audiological Acoustics, Clinic for Otolaryngology, University Hospital Frankfurt am Main, Germany<Affiliation>Audiological Acoustics, Clinic for Otolaryngology, University Hospital Frankfurt am Main, Germany</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">room simulation</Keyword>
      <Keyword language="en">reverberation</Keyword>
      <Keyword language="en">speech perception</Keyword>
      <Keyword language="en">spatial release from masking</Keyword>
      <Keyword language="en">SRM</Keyword>
      <Keyword language="en">interaural level difference</Keyword>
      <Keyword language="en">ILD</Keyword>
      <Keyword language="de">Raumsimulation</Keyword>
      <Keyword language="de">Nachhall</Keyword>
      <Keyword language="de">Sprachverstehen</Keyword>
      <Keyword language="de">r&#228;umliche Entmaskierung</Keyword>
      <Keyword language="de">SRM</Keyword>
      <Keyword language="de">interaural level difference</Keyword>
      <Keyword language="de">ILD</Keyword>
    </SubjectGroup>
    <DatePublishedList>
      
    <DatePublished>20200911</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2628-9083</ISSN>
        <Volume>2</Volume>
        <JournalTitle>GMS Zeitschrift f&#252;r Audiologie - Audiological Acoustics</JournalTitle>
        <JournalTitleAbbr>GMS Z Audiol (Audiol Acoust)</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>06</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>In allt&#228;glichen H&#246;rsituationen ist die akustische Kommunikation von verschiedenen, anspruchsvollen akustischen Umgebungen gepr&#228;gt. In der Regel treten Nebenger&#228;usche auf und zus&#228;tzlich wird der Schall in R&#228;umen von W&#228;nden und Gegenst&#228;nden reflektiert. Reflexionen haben einen Einfluss auf die Diskrimination von Sprachinformationen, jedoch werden audiologische Routinemessungen weitgehend in Messkabinen mit geringer Nachhallzeit durchgef&#252;hrt. Das Ziel dieser Arbeit war die Implementierung und Evaluation eines Raumsimulationssystems zur Untersuchung der H&#246;rleistung in alltagsnahen H&#246;rsituationen mit unterschiedlicher Raumakustik und Nachhall.</Pgraph><Pgraph>Mit Hilfe einer Raumsimulations-Software wurde die Schallausbreitung in Abh&#228;ngigkeit der Raumgeometrie und der Raumakustik berechnet. &#220;ber ein Multikanal-Wiedergabesystem mit 128 Lautsprechern werden den Ergebnissen der Simulation folgend der Anteil des Direktschalls und der Raumreflexionen wiedergegeben. Somit k&#246;nnen beliebige R&#228;ume unter realit&#228;tsnahen und kontrollierten akustischen Bedingungen im Labor rekonstruiert werden. </Pgraph><Pgraph>Das Verfahren wurde anhand eines Raummodells eines leeren H&#246;rsaals f&#252;r verschiedene Absorptionsgrade evaluiert. Technische Messungen der Nachhallzeit (RT) und des Deutlichkeitgrades (D50) zeigten gute &#220;bereinstimmung mit den Modellvorgaben. Zus&#228;tzlich wurden interaurale Pegeldifferenzen (ILDs) aufgezeichnet und in Bezug zu Sprachverst&#228;ndlichkeitsschwellen gebracht. Es zeigte sich, dass die ILDs mit zunehmendem Nachhall um bis zu 10 dB abnehmen. Gleichzeitig ist im Vergleich zwischen Freifeld und Nachhallkondition eine Verschlechterung des spatial release from masking (SRM) um bis zu 5,5 dB SNR zu verzeichnen. </Pgraph><Pgraph>Die Untersuchung der Diskrimination von Sprache mittels des vorgestellten Raumsimulations-Systems erweist sich als sinnvolle Erg&#228;nzung zu etablierten audiologischen Messverfahren. Ein unter bestimmte<TextGroup><PlainText>n r</PlainText></TextGroup>aumakustischen Bedingungen erzieltes Sprachverstehen kann reproduzierbar und zuverl&#228;ssig untersucht werden.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>In everyday life listening situations, communication is characterized by a variety of challenging acoustic scenes. Usually, background noise sources are present and, additionally, direct sound in rooms is reflected from walls and surfaces. These reflections affect speech perception. However, audiological assessments are usually performed in rooms with low reverberation time. This work aims at implementing and evaluating a room simulation system to examine hearing ability in everyday life listening situations with different acoustic properties and reverberation. </Pgraph><Pgraph>With a room simulation software sound propagation was calculated in relation to the room geometry and acoustic room parameters. The direct sound and its reflections are presented according to their direction by using a multichannel playback system with 128 loudspeakers. Any desired room can be reconstructed in the laboratory under realistic and controllable acoustic conditions.</Pgraph><Pgraph>The room simulation procedure was evaluated using an empty auditorium with different degrees of absorption properties. Technical measurements of reverberation time (RT) and distinctness (D50) showed good agreement with the model data. Additionally, interaural level differences (ILDs) were recorded and correlated with speech reception thresholds. ILDs are reduced up to 10 dB with increasing reverberation. At the same time, spatial release from masking (SRM) compared to free field conditions decreased up to 5.5 dB SNR.   </Pgraph><Pgraph>The determination of speech discrimination using the introduced room simulation system is a useful complement to established audiological measurements. The hearing performance under defined acoustic properties can be determined reproducibly and reliably. </Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Im Alltag treten h&#228;ufig komplexe H&#246;rsituationen mit Nebenger&#228;uschen auf. Zus&#228;tzlich wird in geschlossenen R&#228;umen der Direktschall mit Nachhall &#252;berlagert. Typische H&#246;rsituationen im Alltag sind beispielsweise ein Stimmgewirr vieler Sprecher in einem Restaurant, am Bahnhof oder im Supermarkt. Das Sprachverstehen h&#228;ngt sehr stark von Anzahl und r&#228;umlicher Verteilung der St&#246;rger&#228;uschquellen ab <TextLink reference="1"></TextLink>. Da in der Diagnostik und Therapie von H&#246;rst&#246;rungen sowie bei der Anpassung und Kontrolle von H&#246;rsystemen &#252;blicherweise Testverfahren in akustisch optimierten H&#246;rkabinen mit sehr niedriger Nachhallzeit durchgef&#252;hrt werden, kann die tats&#228;chliche H&#246;rleistung im Alltag nicht abgebildet werden. Hier werden weiterhin nur ein bis zwei Schallquellen (Lautsprecher) eingesetzt, wodurch die m&#246;glichen Einfallsrichtungen von Nutz- (d.h. Sprache) und St&#246;rschall limitiert sind. Simulationsverfahren bieten die M&#246;glichkeit, reale H&#246;rsituationen nachzubilden um die H&#246;rleistung von Menschen mit und ohne H&#246;rminderung genauer untersuchen zu k&#246;nnen <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>.</Pgraph><Pgraph>Die Summe aller Reflektionen innerhalb eines abgegrenzten Raumes wird als Nachhall definiert <TextLink reference="5"></TextLink>. Dabei wird die abgestrahlte akustische Information einer Schallquelle in geschlossenen R&#228;umen von diesen Reflexionen &#252;berlagert. Das am Empf&#228;nger aufgenommene Signal l&#228;sst sich in Direktschall, fr&#252;he und sp&#228;te Reflektionen einteilen. Fr&#252;he Reflexionen treten bis zu 50&#8211;80 ms nach der ersten Schallwelle auf und erweisen sich teilweise als n&#252;tzlich f&#252;r das Sprachverstehen, da sie als Verst&#228;rkung der Information des Direktschalls angesehen werden k&#246;nnen <TextLink reference="6"></TextLink>. Sp&#228;te Reflexionen treten mit gr&#246;&#223;erer Verz&#246;gerung auf und werden als diffuse &#8222;Hallfahne&#8220; oder als separates Echo wahrgenommen und k&#246;nnen zu einer Verschlechterung des Sprachverstehens f&#252;hren. Die akustischen Eigenschaften eines Raumes werden durch verschiedene Ma&#223;e wie z.B. Nachhallzeit (engl. &#8222;reverberation time&#8220;, RT), Deutlichkeitsma&#223; (C50), Klarheitsma&#223; (C80), Deutlichkeitsgrad (D50) oder St&#228;rkema&#223; (G) ausgedr&#252;ckt. Die Nachhallzeit beschreibt dabei die Zeit, die ben&#246;tigt wird, bis der Schalldruckpegel eines Schalls auf ein Tausendstel seines Ausgangswertes (d.h. um 60 dB) gesunken ist. Das Deutlichkeitsma&#223; C50 beschreibt das Verh&#228;ltnis zwischen der Schallenergie im Zeitraum bis 50 ms nach dem Direktschall und der Schallenergie ab dem Zeitpunkt 50 ms. Das Klarheitsma&#223; C80 ist definiert durch das Verh&#228;ltnis zwischen der Schallenergie in der Zeit bis 80 ms nach dem Direktschall und der Schallenergie ab dem Zeitpunkt 80 ms. Der Deutlichkeitsgrad D50 beschreibt das Energieverh&#228;ltnis zwischen den fr&#252;hen Reflexionen der ersten 50 ms zur gesamten Schallenergie. Das St&#228;rkema&#223; G setzt den Schallpegel einer kugelf&#246;rmig abstrahlenden Schallquelle ins Verh&#228;ltnis zum Pegel derselben Quelle in 10 m Abstand. Die genannten raumakustischen Kenngr&#246;&#223;en werden unter anderem durch die Gr&#246;&#223;e (d.h. Volumen) des Raumes und die akustischen Eigenschaften der Begrenzungsfl&#228;chen wie Decken, Boden, W&#228;nden, etc., beeinflusst.</Pgraph><Pgraph>Je nach akustischen Eigenschaften eines Raumes wird die zeitliche und spektrale Struktur des Quellsignals ver&#228;ndert. Die &#220;berlagerung des Direktschalls mit Nachhall kann mit der Wirkung eines St&#246;rger&#228;usches verglichen werden und zus&#228;tzlich die Modulationstiefe des Nutzsignals verringern. Aufgrund der Abh&#228;ngigkeit zwischen Raumgr&#246;&#223;e&#47;-beschaffenheit und Sprachverstehen werden nach DIN 18041:2016-03 (H&#246;rsamkeit in R&#228;umen) geeignete Nachhallzeiten abh&#228;ngig vom Volumen des Raumes empfohlen <TextLink reference="7"></TextLink>. Je nach Art der Nutzung gibt es somit unterschiedliche Empfehlungen f&#252;r Musik, Sprache, Unterricht, etc. Bei einem Raumvolumen von 1.000 bis 5.000 m&#179; liegen die optimalen Nachhallzeiten f&#252;r Unterricht bei ca. 0,75 bis 1 s, bei inklusivem Unterricht hingegen sollte die Nachhallzeit bei angegebenem Raumvolumen 0,6 bis 0,8 s nicht &#252;berschreiten. </Pgraph><Pgraph>In dieser Arbeit wird die Weiterentwicklung eines bereits bestehenden Freifeldwiedergabesystems mit 128 Lautsprechern &#91;8&#93; f&#252;r reproduzierbare, flexible und m&#246;glichst plausible Wiedergabe von Schallen in R&#228;umen unterschiedlicher akustischer Beschaffenheit beschrieben. Die Evaluation beinhaltet die messtechnische Analyse raumakustischer Gr&#246;&#223;en sowie von interauralen Pegelunterschieden in drei Nachhallkonditionen. Weiterhin soll der Einfluss von Nachhall auf das Sprachverstehen im St&#246;rger&#228;usch unter Betrachtung der r&#228;umlichen Entmaskierung (engl. &#8222;spatial release from masking&#8220;, SRM) bei normalh&#246;renden Probanden untersucht werden. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>In everyday life, complex hearing situations with background noise often occur. In addition, in closed rooms direct sound is superimposed with reverberation. Typical listening situations in everyday life are, for example, babble noise of many speakers in a restaurant, at the train station or in a supermarket. Speech perception is highly dependent on the number and spatial arrangement of noise sources <TextLink reference="1"></TextLink>. Test procedures in the diagnosis and therapy of hearing disorders as well as in the fitting and testing of hearing systems are usually performed in acoustically optimized listening booths with very low reverberation times. Therefore, the actual hearing performance in everyday life cannot be reproduced. Here, only one or two sound sources (loudspeakers) are used, which limits the possible directions of incidence of target sound (i.e. speech) and noise. Simulation methods offer the possibility to simulate everyday listening situations in order to examine the hearing performance of people with and without hearing loss <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>.</Pgraph><Pgraph>The sum of all reflections within a delimited room is defined as reverberation <TextLink reference="4"></TextLink>. The acoustic information produced by a sound source in closed rooms is superimposed by these reflections. The signal that arrives at the receiver can be divided into direct sound, early and late reflections. Early reflections occur up to 50&#8211;80 ms after the first sound wave and are partly beneficial for speech perception because they provide amplification of the information of the direct sound <TextLink reference="6"></TextLink>. Late reflections occur with more delay and are perceived diffusely or as a separate echo with the consequence of deteriorated speech perception. The acoustic properties of a room are expressed by various measures such as reverberation time (RT), clarity measures (C50&#47;C80), &#8220;Deutlichkeit&#8221;&#47;definition (D50) or strength (G). The reverberation time describes the time it takes for the sound pressure level to decrease to one thousandth of its initial value (i.e. by 6<TextGroup><PlainText>0 dB</PlainText></TextGroup>). The clarity C50 describes the ratio between the sound energy in the period up to 50 ms after direct sound and the sound energy from 50 ms onwards. Clarity C80 is defined by the ratio between the sound energy up to 80 ms after the direct sound and the sound energy from 80 ms onwards. The definition D50 describes the energy ratio between the early reflections of the first 50 ms to the total sound energy. The strength G puts the sound level of a spherically radiating sound source in relation to the level of the same source at a distance of 10 m. The mentioned room acoustic parameters are influenced by the size (i.e. volume) of the room and the acoustic properties of the boundary surfaces such as ceilings, floor, walls, etc. Depending on the acoustic properties of a room, the temporal and spectral structure of the reproduced signal is changed. The superposition of direct sound with reverberation can be compared to the effect of a masking noise and can additionally reduce the modulation depth of the target signal. </Pgraph><Pgraph>Due to the dependency between room size&#47;condition and speech perception, DIN 18041:201603 (audibility in rooms) recommends suitable reverberation times depending on the volume of the room <TextLink reference="7"></TextLink>. Depending on the room usage, there are different recommendations for music, speech, teaching, etc. For room volumes between 1,000 to 5,000 m&#179;, the optimum reverberation time for teaching is approx. 0.75 to 1 s, rooms for teaching lessons for a handicapped audience should not exceed 0.6 to 0.8 s reverberation time for the specified room volume. </Pgraph><Pgraph>This study describes the further development of an already existing free field reproduction system with 128 loudspeakers <TextLink reference="8"></TextLink> for reproducible, flexible and plausible reproduction of sounds in rooms with different acoustic properties. The evaluation includes the analysis of room acoustic parameters and interaural level differences in three reverberated conditions. Furthermore, the influence of reverberation on speech perception in noise will be investigated under consideration of spatial release from masking (SRM) in normal hearing subjects. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Material und Methoden">
      <MainHeadline>Material und Methoden</MainHeadline><SubHeadline>Aufbau des Raumsimulations-Systems </SubHeadline><Pgraph>F&#252;r den Aufbau des Simulationssystems stand am Schwerpunkt Audiologische Akustik der HNO Universit&#228;tsklinik Frankfurt am Main ein reflexionsarmer Raum zur Verf&#252;gung. Dieser Raum ist mit einem Wiedergabesystem mit 128 Lautsprechern (Rechteckarray in der Horizontalebene) ausgestattet, welches bisher entweder unter Freifeldbedingungen (z.B. <TextLink reference="8"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>) oder zur richtungsunabh&#228;ngigen Simulation von Diffusschall <TextLink reference="11"></TextLink> genutzt wurde. Die bestehende Anlage  wurde um eine Komponente zur Raumsimulation erweitert.</Pgraph><SubHeadline2>Raummodell </SubHeadline2><Pgraph>F&#252;r die Raumsimulation wurde in der Software ODEON (ODEON A&#47;S, Lyngby, D&#228;nemark) ein dreidimensionales Modell eines leeren H&#246;rsaals (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>) mit einem Raumvolumen von 3.520 m&#179; verwendet. Die H&#246;he des Raums betr&#228;gt 7,5 bis 10 m. Dieses Raummodell ist in der Software frei verf&#252;gbar (Dateiname: Example.par). In ODEON k&#246;nnen Objekten und W&#228;nden Absorptionseigenschaften bzw. spezifische Materialeigenschaften zugeordnet werden. Basierend auf der genannten Raumgeometrie wurden zwei Raummodelle mit unterschiedlichen Absorptionseigenschaften aller Raumfl&#228;chen (d.h. W&#228;nde, Decke, Boden) erstellt. Die frequenzunabh&#228;ngigen Absorptionsgrade betrugen 80&#37; und 60&#37;. Dabei entspricht 80&#37; Absorption einer mittleren Nachhallzeit von 350 ms und 60&#37; einer Nachhallzeit von 510 ms. </Pgraph><Pgraph>Es wurden drei Schallquellen im vorderen Halbraum der Horizontalebene bei &#8211;60&#176;, 0&#176; und 60&#176; relativ zum Empf&#228;nger positioniert. Dabei hatte die frontale Schallquelle aus 0&#176; einen Abstand von 5 m zur H&#246;rposition, die seitlichen Schallquellen waren 10 m von der H&#246;rposition entfernt. Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> zeigt in der linken Abbildung eine Skizze der Raumgeometrie des Raumes mit drei Schallquellen und einem Empf&#228;nger. </Pgraph><Pgraph>Im Raummodell wurde die Schallausbreitung eines vom Sender richtungs- und frequenzunabh&#228;ngig abgestrahlten Signals zu den Empf&#228;ngern berechnet (Spiegelquellenmodell und &#8222;ray-radiosity-Verfahren&#8220;, <TextLink reference="12"></TextLink>). Es wurden Reflexionen bis zur 10. Ordnung ber&#252;cksichtigt und in einem Reflektogramm dargestellt. F&#252;r jede Reflektio<TextGroup><PlainText>n b</PlainText></TextGroup>einhaltet das Reflektogramm die zeitliche Verz&#246;gerung der Reflektionen, die Oktavpegel zwischen 63 und 8.000 Hz, die horizontalen Schalleinfallswinkel sowie die vertikalen Schalleinfallswinkel. Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> rechts zeigt grafisch die Schallausbreitung von Quelle P1 ausgehend. Der abgestrahlte Schall trifft bei seiner Ausbreitung mehrmals auf Raumbegrenzungen und wird wiederholt reflektiert. Der Direktschall wird in dunkelrot und Reflexionen erster Ordnung in gr&#252;n dargestellt. </Pgraph><SubHeadline2>Raumsimulation </SubHeadline2><Pgraph>Basierend auf den mittels ODEON berechneten Reflektogrammen wurde die Raumsimulation im reflexionsarmen Raum realisiert. Abbildung 2 <ImgLink imgNo="2" imgType="figure"/> zeigt eine Skizze des Laborraums mit den Positionen der Schallquellen. </Pgraph><Pgraph>Es wurde das Verfahren des am n&#228;chsten gelegenen Lautsprechers angewendet <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>. Dies bedeutet, dass bei der Wiedergabe f&#252;r jede berechnete Reflexion der Lautsprecher mit dem geringsten Abstand im Horizontalwinkel gew&#228;hlt wird. Reflexionen mit einem vertikalen Einfallswinkel gr&#246;&#223;er als &#177;30&#176; wurden nicht ber&#252;cksichtigt, da es sich im Wiedergaberaum um eine horizontale Lautsprecheranordnung handelt. W&#228;hrend eine vollst&#228;ndige Integration (d.h. Mapping) aller Elevationswinkel auf die Horizontalebene einen vollst&#228;ndigen Erhalt der Reflexionsdichte der Erstreflexionen erm&#246;glicht, f&#252;hrt diese Variante zu sehr deutlich h&#246;rbaren Klangverf&#228;rbungen. Als Kompromiss zwischen Reflexionsdichte und Klangverf&#228;rbung haben wir deshalb nach subjektiven Tests in Vorversuchen beschlossen, vertikale Einfallswinkel bis &#177;30&#176; &#252;ber die horizontalen Lautsprecher wiederzugeben. Basierend auf dem Reflektogramm wurde f&#252;r jede Reflexion entsprechend ihrer zeitlichen Verz&#246;gerung und ihres Spektrums eine Impulsantwort generiert.</Pgraph><Pgraph>Im n&#228;chsten Schritt wurde jeder Reflexion der im Horizontalwinkel n&#228;chstliegende Lautsprecher zugeordnet und die Impulsantworten je Lautsprecher summiert. 80 ms nach dem Direktschall wurden sp&#228;te Reflexionen mittels eines statistischen Modells (Feedback-Delay-Network, FDN, bezogen von den Quality &#38; Usability Labs, Institut f&#252;r Softwaretechnik und Theoretische Informatik, Technische Universit&#228;t Berlin) als diffuser Nachhall eingeblendet. Hierzu wurde im Zeitfenster zwischen 80 ms und 120 ms nach Direktschall der RMS-Pegel aller generierten Reflexionen bestimmt. Der diffuse Hall wurde im Pegel an die zuvor generierten Reflexionen angepasst. Der diffuse Nachhall wurde unter Einbeziehung der frequenzabh&#228;ngigen RT generiert und gleicherma&#223;en auf alle 128 Kan&#228;le eingeblendet. Zum Ausgleich der aufgrund der Rechteckanordnung individuellen &#220;bertragungseigenschaften der Lautsprecher zur Raummitte (Amplitudenfrequenzgang und Laufzeit) wurde f&#252;r jeden Lautsprecher individuell eine Entzerrung durchgef&#252;hrt (&#8222;finite impulse response&#8220; (FIR) Filter). </Pgraph><Pgraph>Die generierte 128-kanalige Raumimpulsantwort (&#8222;room impulse response&#8220;, RIR) wurde f&#252;r die Schallwiedergabe mit dem gew&#252;nschten einkanaligen Audiosignal gefaltet. Die Darbietung des Raumklangs erfolgte simultan &#252;ber alle 128 Lautsprecher. Es wurden RIRs beider Konditionen mit Nachhall, f&#252;r je drei Direktschallpositionen (&#177;60&#176;, 0&#176;) erzeugt. Abbildung 3 <ImgLink imgNo="3" imgType="figure"/> zeigt ein Flussdiagramm der Raumsimulation mit Direktschall, Erstreflexionen und diffusem Hall.</Pgraph><Pgraph></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Materials and methods">
      <MainHeadline>Materials and methods</MainHeadline><SubHeadline>Implementation of the room simulation system </SubHeadline><Pgraph>For the implementation of the simulation system, an anechoic chamber was available at the Audiological Acoustics Department of the ENT University Hospital of the J.W.-Goethe University Frankfurt am Main. This room is equipped with a reproduction system with 128 loudspeakers (rectangular array in the horizontal plane), which was previously used either under free field conditions (e.g. <TextLink reference="8"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>) or for the direction-independent simulation of diffuse sound <TextLink reference="11"></TextLink>. The existing system was extended by a component for room simulation.</Pgraph><SubHeadline2>Room model </SubHeadline2><Pgraph>The software package ODEON (ODEON A&#47;S, Lyngby, Denmark) was used with to implement a three-dimensional model of an empty lecture hall (see Figure 1 <ImgLink imgNo="1" imgType="figure"/>) with a room volume of 3,520 m&#179;. The height of the room is between 7.5 to 10 m. This room model is freely available and delivered as example with ODEON (file name: <TextGroup><PlainText>Example.par</PlainText></TextGroup>). In ODEON, absorption properties or specific material properties can be assigned to objects and walls. Based on the room geometry mentioned above, two room models with different absorption properties of all room surfaces (i.e. walls, ceiling, floors) were generated. The frequency independent absorption coefficients were 80&#37; and 60&#37;. Thereby, 80&#37; absorption corresponds to an average reverberation time of 350 ms and 60&#37; to a reverberation time of 510 ms. </Pgraph><Pgraph>Three sound sources were positioned in the front half space of the horizontal plane at &#8211;60&#176;, 0&#176; and 60&#176; relative to the receiver. The frontal sound source (0&#176;) was <TextGroup><PlainText>5 m</PlainText></TextGroup> apart from the listening position, the lateral sound sources were 10 m apart from the listening position. Figure 1 <ImgLink imgNo="1" imgType="figure"/> (left)  shows a sketch of the room geometry of the room with three sound sources and one receiver. In the room model, the sound propagation of a signal emitted by the transmitter independently of direction and frequency was calculated (mirror source model and &#8220;ray-radiosity method&#8221;, <TextLink reference="12"></TextLink>). Reflections up to the 10<Superscript>th</Superscript> order were calculated and stored in a reflectogram. For each reflection, the reflectogram contains the time delay of the reflections, the octave levels between 63 and 8,00<TextGroup><PlainText>0 H</PlainText></TextGroup>z, the horizontal sound incidence angles and the vertical sound incidence angles. Figure 1 <ImgLink imgNo="1" imgType="figure"/> (right) displays sound propagation. During its propagation, the radiated sound hits room boundaries several times and is reflected repeatedly. The direct sound is shown in dark red and first-order reflections in green. </Pgraph><SubHeadline2>Room simulation </SubHeadline2><Pgraph>Based on the reflectograms calculated by ODEON, the room simulation was realized in a low-reflective room. Figure 2 <ImgLink imgNo="2" imgType="figure"/> shows a sketch of the laboratory room with the positions of the sound sources. </Pgraph><Pgraph>The nearest loudspeaker method was used <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>. This means that for each calculated reflection, the speaker with the smallest distance of the horizontal angle is selected for playback. Reflections with an elevation angle of incidence greater than &#177;30&#176; were not taken into account because the speakers of the present sound reproduction system are arranged horizontally. While a complete integration (i.e. mapping) of all elevation angles in the horizontal plane allows a complete preservation of the reflection density of the initial reflections, this variant leads to clearly audible sound coloration. After preliminary listening experiments, vertical angles of incidence up to &#177;30&#176; were discarded as a compromise between reflection density and sound coloration. Based on the reflectogram, an impulse response was generated for each reflection according to its time delay and spectrum.</Pgraph><Pgraph>In the next step, each reflection was assigned to the loudspeaker closest to the calculated horizontal angle and the impulse responses per loudspeaker were summed. Late reflections were inserted as diffuse reverberation using a statistical model 80 ms after direct sound incidence (Feedback Delay Network, FDN retrieved from Quality &#38; Usability Labs, Institution for Software Technology and Theoretic Informatics, Technical University Berlin). For this purpose, the RMS levels of all generated reflections were determined in the time window between 80 ms and 120 ms after direct sound. The level of the diffuse reverberation was adjusted in level to the previously generated reflections. The diffuse reverberation was generated using the frequency-dependent RT and faded in equally on all 128 channels. To compensate for the individual transmission characteristics of the loudspeakers to the center of the room (amplitude frequency response and running time) due to the rectangular arrangement, equalization was carried out individually for each loudspeaker (finite impulse response (FIR) filter). The generated 128-channel room impulse response (RIR) was convolved with the desired single-channel audio signal for sound reproduction. The spatial sound was presented simultaneously via all 128 loudspeakers. RIRs of both conditions with reverberation were generated, each for three direct sound positions (&#177;60&#176;, 0&#176;). Figu<TextGroup><PlainText>re 3</PlainText></TextGroup> <ImgLink imgNo="3" imgType="figure"/> shows a flowchart of the room simulation with direct sound, early reflections and diffuse reverberation.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Evaluation des Raumsimulations-Systems">
      <MainHeadline>Evaluation des Raumsimulations-Systems</MainHeadline><Pgraph>Um die Qualit&#228;t der Simulation zu &#252;berpr&#252;fen, wurden im ersten Schritt RT und D50 messtechnisch ermittelt und mit den Modelldaten verglichen. Im zweiten Schritt wurde das System unter audiologischen Gesichtspunkten evaluiert, indem Sprachtests durchgef&#252;hrt und die Ergebnisse einer Bewertung unterzogen wurden. Hierbei wurde der Einfluss der Nachhallzeit auf das Sprachverstehen und SRM untersucht. Zus&#228;tzlich wurden mit einem Kunstkopf aufgenommene kopfbezogene (engl. &#8222;head-related&#8220;) IRs (HRIRs) auf interaurale Pegeldifferenzen (engl. &#8222;interaural level differences&#8220;, ILDs) untersucht und in Relation zum SRM betrachtet.</Pgraph><SubHeadline>Technische Evaluation </SubHeadline><SubHeadline2>Material und Methode </SubHeadline2><Pgraph>Die RT und D50 wurden sowohl pro Oktavfrequenzband von 63 Hz bis 8.000 Hz als auch breitbandig gemittelt analysiert und mit den Berechnungen des Raummodells verglichen. Die Analyse erfolgte f&#252;r eine Schallquelle bei 0&#176;. Als Stimulus wurde ein Sinussweep (Frequenzbereich von 50 Hz bis 22.050 Hz) der Dauer 0,5 s genutzt. Die Messungen an der H&#246;rposition erfolgte mit einem Messmikrofon vom Typ 4155 (Br&#252;el &#38; Kj&#230;r, N&#230;rum, D&#228;nemark) am Impedanzwandler 2.669 und Messverst&#228;rker Nexus des gleichen Herstellers. Die Impulsantworten wurden mit der Akustiksoftware ARTA (Artalabs, Kastel Luksic, Kroatien) untersucht. </Pgraph><Pgraph>Zus&#228;tzlich wurden die IRs am Kopf- und Rumpfsimulator (Br&#252;el &#38; Kj&#230;r Type 4100 mit Mikrofonen Type 419<TextGroup><PlainText>0-L-0</PlainText></TextGroup>02) gemessen. Die Schalldarbietung erfolgte aus 60&#176;. Aus den Ergebnissen der Messungen wurden ILDs abgeleitet. Alle Messungen wurden in beiden simulierten Konditionen mit Absorptionsgraden 60&#37; und 80&#37; und unter Freifeldbedingungen (d.h. &#126;100&#37; Absorptio<TextGroup><PlainText>n) du</PlainText></TextGroup>rchgef&#252;hrt.</Pgraph><SubHeadline2>Ergebnisse</SubHeadline2><Pgraph>F&#252;r die Freifeldmessung ergab sich eine mittlere RT von 0,05 s. Die RT-Werte pro Oktavband sind f&#252;r Messkondition 2 mit 80&#37; Absorption und Messkondition 3 mit 60&#37; Absorption in Tabelle 1 <ImgLink imgNo="1" imgType="table"/> angegeben. Die durch das Modell mittels ODEON ermittelte RT lag in der Kondition mit 80&#37; Absorption im Mittel &#252;ber alle Frequenzen bei 0,35 s; f&#252;r 60&#37; Absorption bei 0,51 s. Die Messungen mit dem Simulationssystem im reflexionsarmen Raum ergaben bei 80&#37; Absorption 0,39 s und bei 60&#37; Absorption 0,58 s Nachhallzeit. Es zeigen sich die gr&#246;&#223;ten Abweichungen in den tieffrequenten B&#228;ndern, insbesondere im Bereich und unterhalb der Grenzfrequenz des reflexionsarmen Raumes (&#126;200 Hz). </Pgraph><Pgraph>Tabelle 2 <ImgLink imgNo="2" imgType="table"/> zeigt beispielhaft f&#252;r Messkondition 2 (80&#37; Absorption) und Messkondition 3 (60&#37; Absorption) das D50-Ma&#223; pro Oktavfrequenz. Die D50 Werte lagen im Modell im Mittel &#252;ber alle Frequenzen bei 95&#37; und 91&#37; (Kondition 2 und 3 entsprechend). In den Messungen ergaben sich 96&#37; in Kondition 2 und 87&#37; in Kondition 3. &#196;hnlich wie bei den RT-Werten liegen die gr&#246;&#223;ten Abweichungen im tieffrequenten Bereich. Mittels der am Kopf- und Rumpfsimulator aufgenommen HRIRs wurden f&#252;r alle drei Konditionen ILDs berechnet. Abbildung 4 <ImgLink imgNo="4" imgType="figure"/> zeigt die ILDs als Funktion der Frequenz. In allen Konditionen liegt die h&#246;chste ILD bei ca. 4 kHz. Bis 4 kHz steigen die ILDs mit steigender Frequenz steil an, ab etwa <TextGroup><PlainText>5 kHz</PlainText></TextGroup> sinken sie leicht und bleiben bis 10 kHz nahezu konstant. Je st&#228;rker der Nachhall, umso geringer ist die ILD. Zwischen Kondition 1 (Freifeldkondition) und Kondition 3 (starker Nachhall) liegt zwischen 3.000 Hz und 5.000 Hz ein ILD-Unterschied von bis zu 10 dB.</Pgraph><SubHeadline>Sprachtests</SubHeadline><SubHeadline2>Material und Methode </SubHeadline2><Pgraph>Das Sprachverstehen im St&#246;rger&#228;usch wurde an normalh&#246;renden (NH) Probanden mit dem Oldenburger Satztest (OLSA, <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink> in den Anordnungen S0N0 (Signal bei 0&#176;, St&#246;rger&#228;usch bei 0&#176;) und S0N60 (Signal bei 0&#176;, St&#246;rger&#228;usch bei &#177;60&#176;) bestimmt. Der Abstand zwischen Proband und dem Lautsprecher bei 0&#176; war 1 m, zu den Lautsprechern bei 60&#176; betrug der Abstand 1,80 m. Der Direktschall des Sprachsignals wurde f&#252;r alle Konditionen auf 60 dB SPL festgelegt. Das Sprachsignal blieb im Pegel konstant, w&#228;hrend der St&#246;rger&#228;uschpegel adaptiv ge&#228;ndert wurde. Das Signal-Rauschverh&#228;ltnis (SNR) bei Testbeginn lag bei &#43;5 dB. Alle Probanden absolvierten eine Trainingsliste. Anschlie&#223;end wurden in randomisierter Reihenfolge Messungen mit 100&#37;, 80&#37; und 60&#37; Absorption jeweils mit den Anordnungen S0N0 und S0N60 durchgef&#252;hrt. Als Rauschsignal wurde das Oldenburger Rauschen (OlNoise) verwendet. Pro Messung wurden 20 OLSA-S&#228;tze abgespielt. Der Proband sa&#223; in der Mitte des reflexionsarmen Raumes und w&#228;hlte die Antworten &#252;ber einen Touchscreen-Monitor aus.</Pgraph><Pgraph>An den Messungen nahmen 17 NH Probanden (Alter: 26,7&#177;8,0 Jahre, 3 weibl., 14 m&#228;nnl.) teil. Die Ergebnisse wurden mittels Kolmogorow-Smirnow-Test auf Normalverteilung untersucht. Da der Test die Annahme einer Normalverteilung best&#228;tigte, wurden statistische Auswertungen mittels T-Test durchgef&#252;hrt. Bei Mehrfachvergleichen wurde das Signifikanzniveau mittels der Bonferroni-Methode korrigiert.</Pgraph><SubHeadline2>Ergebnisse </SubHeadline2><Pgraph>Abbildung 5 <ImgLink imgNo="5" imgType="figure"/> zeigt Boxplots der Sprachverst&#228;ndlichkeitsschwellen (SVS) f&#252;r die drei Konditionen in den beiden Anordnungen S0N0 (Signal 0&#176;, Noise 0&#176;) und S0N60 (Signal 0&#176;, Noise &#177;60&#176;). F&#252;r das Sprachverstehen bei r&#228;umlich &#252;berlagerter Sprach- und St&#246;rschallwiedergabe von vorne (S0N0) ergab sich in der Freifeldbedingung im Median eine SVS von &#8211;7,4 dB SNR. In Kondition 2 reduziert sich diese auf &#8211;5,8 dB SNR. Die Ergebnisse sind signifikant unterschiedlich (<Mark2>p</Mark2>&#61;0,024). In Kondition 3 betr&#228;gt die SVS noch &#8211;4,7 dB SNR. Diese ist signifikant schlechter als die FF-Bedingung (<Mark2>p</Mark2>&#60;0,001) und als die Bedingung mit 80&#37; Absorption (<Mark2>p</Mark2>&#61;0,01). Bei r&#228;umlicher Trennung der Sprach- und St&#246;rschallquellen (S0N60) verbesserte sich die SVS in der Freifeldbedingung auf &#8211;13,9 dB SNR. Bei einem Absorptionsgrad von 80&#37; reduziert sich die SVS auf &#8211;8,8 dB SNR, beim Absorptionsgrad von 60&#37; betr&#228;gt sie noch &#8211;6 dB SNR. Alle Ergebnisse unterscheiden sich signifikant (<Mark2>p</Mark2>&#60;0,001).</Pgraph><Pgraph>Der Gewinn in der SVS durch die r&#228;umliche Trennung (SRM) wurde durch Differenzbildung der SVS der Konditionen S0N60 und S0N0 bestimmt. Die Ergebnisse des SRM sind in Abbildung 6 <ImgLink imgNo="6" imgType="figure"/> dargestellt.</Pgraph><Pgraph>Im Freifeld betr&#228;gt der Vorteil durch die r&#228;umliche Entmaskierung 6,8 dB. Bei einem Absorptionsgrad von 80&#37; reduziert sich der SRM auf 2,7 dB, beim Absorptionsgrad von 60&#37; betr&#228;gt er nur noch 1,3 dB. Die Konditionen mit Raumsimulation unterscheiden sich signifikant von der Freifeldbedingung (<Mark2>p</Mark2>&#60;0,001) und der SRM bei 60&#37; Absorption ist signifikant geringer als bei 80&#37; (<Mark2>p</Mark2>&#61;0,016).</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Evaluation of the room simulation system">
      <MainHeadline>Evaluation of the room simulation system</MainHeadline><Pgraph>To check the quality of the simulation, RT and D50 were measured and compared with the model data in the first step. In a second step, the system was evaluated from an audiological point of view by conducting speech tests and evaluating the results. The influence of the reverberation time on speech perception and SRM was investigated. In addition, head-related IRs (HRIRs) recorded with an artificial head were examined for interaural level differences (ILDs) and considered in relation to the SRM. </Pgraph><SubHeadline>Technical evaluation</SubHeadline><SubHeadline2>Material and method </SubHeadline2><Pgraph>The RT and D50 were analyzed per octave frequency band from 63 Hz to 8,000 Hz as well as broadband averaged and compared with the calculations of the room model. The analysis was performed for a sound source at 0&#176;. A sinus sweep (frequency range from 50 Hz to 22,050 Hz) of 0.5 s duration was used as stimulus. The measurements at the listening position were made with a measuring microphone of type 4155 (Br&#252;el &#38; Kj&#230;r, N&#230;rum, Denmark) and an impedance converter 2,669 connected to a measuring amplifier (Nexus) of the same manufacturer. The impulse responses were analyzed with the acoustic software ARTA (Artalabs, Kastel Luksic, Croatia). In addition, the IRs were measured at the head and torso simulator (Br&#252;el &#38; Kj&#230;r Type 4100 with microphones Type 4190-L-002). The sound presentation was made from 60&#176;. ILDs were derived from the results of the measurements. All measurements were performed in both simulated conditions with absorption coefficients of 60&#37; and 80&#37; and under free field conditions (i.e. &#126;100&#37; absorption).</Pgraph><SubHeadline2>Results</SubHeadline2><Pgraph>For the free field measurement an average RT of 0.05 s was obtained. The RT values per octave band are given in Table 1 <ImgLink imgNo="1" imgType="table"/> for measurement condition 2 with 80&#37; absorption and measurement condition 3 with 60&#37; absorption. The RT averaged over all frequencies determined by the model using ODEON was 0.35 s in the condition with 80&#37; absorption and 0.51 s with 60&#37; absorption. The measurements with the simulation system in the (nearly) anechoic room resulted in a reverberation time of 0.39 s at 80&#37; absorption and 0.58 s at 60&#37; absorption. The greatest deviations were found in the lower frequency bands, especially in the range and below the cut-off frequency of the low-reflective room (&#126;200 Hz). </Pgraph><Pgraph>Table 2 <ImgLink imgNo="2" imgType="table"/> shows the D50 measurement per octave frequency as an example for measurement condition 2 (80&#37; absorption) and measurement condition 3 (60&#37; absorption). In the model, the averaged D50 values were 95&#37; and 91&#37; over all frequencies (condition 2 and 3 accordingly). The measurements showed 96&#37; in condition 2 and 87&#37; in condition 3. Similar to the RT values, the largest deviations are in the lower frequency range. Using the HRIRs recorded on the head and torso simulator, ILDs were calculated for all three conditions. Figure 4 <ImgLink imgNo="4" imgType="figure"/> shows the ILDs as a function of frequency. In all conditions the highest ILD is at about 4 kHz. Up to 4 kHz the ILDs rise steeply with increasing frequency, from about 5 kHz they decrease slightly and remain almost constant up to 1<TextGroup><PlainText>0 k</PlainText></TextGroup>Hz. The stronger the reverberation, the lower the ILD. Between condition 1 (free field condition) and condition 3 (strong reverberation) there is an ILD difference of up to 10 dB between 3,000 Hz and 5,000 Hz.</Pgraph><SubHeadline>Speech perception tests </SubHeadline><SubHeadline2>Material and method </SubHeadline2><Pgraph>Speech perception in noise was determined in normal hearing (NH) with the Oldenburg sentence test (OLSA, <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink> in the source arrangements S0N0 (signal at 0&#176;, noise at 0&#176;) and S0N60 (signal at 0&#176;, noise at &#177;60&#176;).</Pgraph><Pgraph>The distance between the subject and the loudspeaker at 0&#176; was 1 m, to the loudspeakers at 60&#176; the distance was 1.80 m. The direct sound of the speech signal was set at 60 dB SPL for all conditions. The level of the speech signal remained constant, while the noise level was adaptively changed. The initial signal to noise ratio (SNR) was set to &#43;5 dB. All subjects completed a training list. Subsequently, measurements with 100&#37;, 80&#37; and 60&#37; absorption were performed in randomized order with the S0N0 and S0N60 setups. As noise signal the Oldenburg noise (OlNoise) was used. One run consisted of 20 sentences. The subject was placed in the center of the test room and responded via a touch screen monitor.</Pgraph><Pgraph>17 NH subjects (age: 26.7&#177;8.0 years, 3 female, 14 male) participated in the measurements. The results were examined for normal distribution using the Kolmogorov-Smirnov test. Since the test confirmed the assumption of a normal distribution, statistical evaluations were carried out using the T-test. In multiple comparisons, the significance level was corrected using the Bonferroni method. </Pgraph><SubHeadline2>Results </SubHeadline2><Pgraph>Figure 5 <ImgLink imgNo="5" imgType="figure"/> shows boxplots of the speech perception thresholds (SRTs) for the three conditions in the two source arrangements S0N0 (Signal 0&#176;, Noise 0&#176;) and S0N60 (Signal 0&#176;, Noise &#177;60&#176;).</Pgraph><Pgraph>For speech perception with spatially superimposed speech and noise playback from the front (S0N0), the free field condition resulted in a median SRT of &#8211;7.4 dB SNR. In condition 2 this is reduced to &#8211;5.8 dB SNR. The results are significantly different (<Mark2>p</Mark2>&#61;0.024). In condition 3 the SRT is still &#8211;4.7 dB SNR. This is significantly worse than the FF condition (<Mark2>p</Mark2>&#60;0.001) and than in the condition with 80&#37; absorption (<Mark2>p</Mark2>&#61;0.01). </Pgraph><Pgraph>With spatial separation of the speech and noise sources (S0N60), the SRT in the free field condition improved to &#8211;13.9 dB SNR. At an absorption coefficient of 80&#37;, the SRT is reduced to &#8211;8.8 dB SNR, at an absorption coefficient of 60&#37; it is still &#8211;6 dB SNR. All results differ significantly (<Mark2>p</Mark2>&#60;0.001).</Pgraph><Pgraph>The benefit in terms of SRT due to spatial separation (SRM) was determined by subtracting the SRT of conditions S0N60 and S0N0. SRM results are shown in <TextGroup><PlainText>Figure 6 </PlainText></TextGroup><ImgLink imgNo="6" imgType="figure"/>. In the free field, the advantage of spatial unmasking is 6.8 dB. With 80&#37; absorption, the SRM is reduced to 2.7 dB; with 60&#37; absorption it is only 1.3 dB. The results of conditions with reverberation differ significantly from free field condition (<Mark2>p</Mark2>&#60;0.001) and the SRM at 60&#37; absorption is significantly lower than at 80&#37; absorption (<Mark2>p</Mark2>&#61;0.016).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion und Ausblick">
      <MainHeadline>Diskussion und Ausblick</MainHeadline><Pgraph>Ziel dieser Arbeit war es, das vorhandene Freifeldwiedergabesystem um eine Raumsimulation zu erweitern und diese zu evaluieren. Dazu wurden Raumsimulationen f&#252;r einen Modell-H&#246;rsaal durchgef&#252;hrt und die akustischen Kenngr&#246;&#223;en RT und D50 zwischen den Vorhersagen des Modells und der Laborwiedergabe verglichen. Zus&#228;tzlich wurde durch Einf&#252;hrung von zwei verschiedenen Absorptionsgraden der Effekt von zwei verschieden langen Nachhallzeiten auf die Sprachdiskrimination im St&#246;rger&#228;usch und den SRM gepr&#252;ft.</Pgraph><Pgraph>&#196;hnlich wie in anderen Arbeiten wurde eine Raumsimulation basierend auf Reflektogrammen aus einem Raummodell realisiert <TextLink reference="2"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink> und um den diffusen Nachhall durch Nutzung eines Feedback-Delay-Netzwerks erg&#228;nzt. F&#252;r die Wiedergabe der Erstreflexionen wurde der Ansatz des n&#228;chstgelegenen Lautsprechers gew&#228;hlt. Dieses Verfahren wurde eingesetzt, da die Integration in das bereits vorhandene Testsetup mit 128 Lautsprechern ohne technische Umbauten im Wiedergaberaum erfolgen konnte und aufgrund des geringen Durchmessers der Einzellautsprecher (und dem damit verbundenen geringen Lautsprecherabstand) eine &#228;u&#223;erst gute Winkelaufl&#246;sung in der Horizontalebene erreicht werden kann. Andere bereits in der Literatur beschriebene Systeme f&#252;r akustische Raumsimulation mit oft weniger Lautsprechern verwenden beispielsweise die Verfahren &#8222;Higher Order Ambisonics&#8220; (HOA, z.B. <TextLink reference="2"></TextLink>), Vector Base Amplitude Panning (VBAP, <TextLink reference="18"></TextLink>) oder Wellenfeldsynthese (WFS, <TextLink reference="19"></TextLink>). Verfahren wie HOA und WFS haben jedoch den Nachteil, dass aufgrund der begrenzten Zahl an Lautsprechern bzw. des nicht unendlich kleinen Abstand zwischen zwei Lautsprechern eine mehr oder weniger stark ausgepr&#228;gte r&#228;umliche Unterabtastung (sogenanntes &#8222;spatial aliasing&#8220;) stattfindet, d.h. das synthetisierte Schallfeld ist oberhalb der Aliasfrequenz nicht mehr physikalisch korrekt. Bei WFS liegt, je nach Aufbau und Lautsprecherabstand, die Aliasfrequenz &#252;blicherweise bei etwa 1&#8211;4 kHz. Das hier verwendete Verfahren des n&#228;chstgelegenen Lautsprechers wurde favorisiert, da im gesamten relevanten Frequenzbereich immer eine physikalisch korrekte Wiedergabe der Einzelreflexionen erm&#246;glicht wird. Der Nachteil des hier beschriebenen Systems ist, dass nur eine Wiedergabe in der Horizontalebene m&#246;glich ist. Um eine dreidimensionale Raumsimulation zu erm&#246;glichen, bietet sich die Nutzung von HOA oder VBAP an. Hierzu m&#252;ssen dann aber auch Lautsprecher mit Elevation installiert werden. Bei einer konstanten H&#246;rerposition im sogenannten &#8222;Sweet-Spot&#8220; (Mitte des Wiedergabearrays) kann auch bei der Nutzung von HOA bei entsprechendem Wiedergabesetup eine f&#252;r die H&#246;rforschung ausreichend korrekte r&#228;umliche Aufl&#246;sung erreicht werden. In der dreidimensionalen Umsetzung kann der diffuse Nachhall beispielsweise auch mit Ambisonics der 1. Ordnung auf Basis der Einh&#252;llenden erzeugt werden <TextLink reference="2"></TextLink>. Anstelle der Nutzung eines Raummodells k&#246;nnen bei dem Wiedergabeverfahren HOA auch dreidimensionale Mikrofonaufnahmen (d.h. gemessene Impulsantworten) realer R&#228;ume zur Raumsimulation genutzt werden.</Pgraph><Pgraph>W&#228;hrend mit dem hier genutzten Verfahren keine dynamisch bewegten Schallquellen erzeugt werden k&#246;nnen, ist dies mit anderen Verfahren m&#246;glich. Je nach Fragestellung und gew&#252;nschter H&#246;rsituation ist daher die Wahl des genutzten Wiedergabeverfahrens mit den jeweiligen Vor- und Nachteilen individuell zu &#252;berdenken. Die Arbeiten von Grimm et al. <TextLink reference="20"></TextLink> und Ahrens und Koautoren <TextLink reference="21"></TextLink> geben einen guten &#220;berblick, welche Verfahren sich f&#252;r welche Fragestellung am besten eignen. </Pgraph><Pgraph>Die Evaluation der hier vorgestellten Raumsimulation zeigte eine gute &#220;bereinstimmung zwischen Messungen und Modell-Daten. Sowohl RT als auch D50 zeigten nur unterhalb der Grenzfrequenz des zur Verf&#252;gung stehenden reflexionsarmen Raumes gr&#246;&#223;ere Abweichungen. Das in dieser Studie simulierte Auditorium hat ein Volumen von 3.520 m&#179; und entsprechend der Messungen eine maximale RT von 580 ms. Die mit den verwendeten Absorptionsgraden beobachteten Nachhallzeiten unterschritten die nach DIN-Norm &#91;7&#93; geforderte maximale mittlere Nachhallzeit von 900 ms f&#252;r Unterricht&#47;Kommunikation bzw. 1,2 s f&#252;r Sprache&#47;Vortrag deutlich. Dennoch zeigte sich bereits eine stark reduzierte Sprachverst&#228;ndlichkeit.</Pgraph><Pgraph>In den Messungen zum Sprachverstehen in der r&#228;umlichen Anordnung S0N0 zeigte sich in Kondition 3 (60&#37; Absorption, RT 580 ms) im Vergleich zur Freifeldsituation eine Verschlechterung von 2,7 dB SNR. In Kondition 2 (80&#37; Absorption, RT 390 ms) betrug diese Verschlechterung 1,6 dB SNR. Bedingt durch fr&#252;he Reflexionen erreicht der abgegebene Schall das Ohr mit Zeitverz&#246;gerung mehrere Male und sp&#228;te Reflexionen bewirken zus&#228;tzlich, dass der Schallpegel nur relativ langsam abf&#228;llt. Dies f&#252;hrt bei Sprachdarbietungen dazu, dass Sprachanteile von reflektiertem Schall maskiert werden. Einzelne Phoneme k&#246;nnen somit &#252;berdeckt werden, was zu einem reduzierten Sprachverstehen f&#252;hrt. Die RT und D50 dr&#252;cken dies ebenfalls aus: W&#228;hrend in Kondition 1 (Freifeldbedingung) eine minimale RT vorliegt und 100&#37; der Schallenergie innerhalb von 50 ms integriert wird, liegen in Kondition 3 im Mittel 13&#37; der Schallenergie au&#223;erhalb der ersten 50 ms nach dem Direktschall. Hierdurch kann auf einen erh&#246;hten Effekt der Maskierung von Sprache durch Nachhall geschlossen werden.</Pgraph><Pgraph>In der S0N60-Kondition bei 60&#37; Absorption verschlechterte sich die SVS im Vergleich zur FF-Bedingung um 7,<TextGroup><PlainText>9 dB</PlainText></TextGroup> SNR. Dies spiegelte sich insbesondere auch im SRM wieder. Lediglich 1,3 dB SNR Verbesserung konnten durch die r&#228;umliche Trennung von St&#246;r- und Nutzschallquelle noch erzielt werden. Abbildung 4 <ImgLink imgNo="4" imgType="figure"/> zeigt die ILDs der drei gemessenen akustischen Konditionen als Funktion der Frequenz. Zwischen der Kondition 1 (Freifeld) und Kondition 3 (60&#37; Absorption) zeigen sich verminderte ILDs &#252;ber das gesamte Frequenzspektrum. Zwischen 3.000 Hz und 5.000 Hz ist der ILD-Unterschied maximal, er betr&#228;gt etwa 10 dB. Diese ILD-Reduktion erkl&#228;rt den deutlich reduzierten SRM unter Nachhall, die Abschattung des Schalls durch den Kopf ist durch das diffuse Schallfeld verringert. Die durch den Kopfschatteneffekt entstehende SNR-Verbesserung am kontralateralen Ohr ist somit deutlich geringer und resultiert in einem verminderten Effekt. Kidd und Koautoren <TextLink reference="22"></TextLink> demonstrierten den Effekt von Nachhall auf den SRM in einem Raum, der in einer Kondition mit Plexiglas und in der Vergleichskondition mit Schaumstoff ausgekleidet war. Der Gewinn durch r&#228;umliche Trennung von Nutz- und St&#246;rschall um 90&#176; verringerte sich von 8 dB SNR auf 2 dB SNR in der Plexiglas-Kondition und ist vergleichbar mit den in dieser Arbeit gezeigten Resultaten. </Pgraph><Pgraph>Die Ergebnisse best&#228;tigen die lange bekannte Beobachtung des Einflusses der Raumakustik auf die Sprachdiskrimination. Eine Raumakustik mit sehr geringer Nachhallzeit f&#246;rdert gutes Sprachverstehen. Eine lange Nachhallzeit hingegen f&#252;hrt zu erh&#246;hter Maskierung des direkten Sprachsignals durch zus&#228;tzliche Nachhallanteile des St&#246;rger&#228;uschs und des Nutzsignals selbst. Lange Nachhallzeiten haben somit eine negative Wirkung auf die Sprachdiskrimination. Der Einfluss der Raumakustik wird gegenw&#228;rtig in den klinischen audiologischen Pr&#252;fverfahren zur Sprachverst&#228;ndlichkeit nicht ber&#252;cksichtigt. Die Bestimmung der H&#246;rleistung im Raumsimulationssystem stellt eine sinnvolle Erg&#228;nzung zu etablierten audiologischen Messverfahren dar. Zuk&#252;nftig sollen auch mit H&#246;rger&#228;te- sowie Nutzern von Cochlea-Implantaten H&#246;rtests in simulierten akustischen H&#246;rumgebungen durchgef&#252;hrt werden. Hierdurch k&#246;nnen zus&#228;tzliche Informationen &#252;ber den Einfluss der Versorgungsart und den Effekt von Signalvorverarbeitung auf die Sprachdiskrimination gewonnen werden. Eine Erg&#228;nzung der Messkonditionen ist geplant und soll zu weiteren Einblicken in die Auswirkung raumakustischer Gr&#246;&#223;en auf die Verst&#228;ndlichkeit von Sprache f&#252;hren. Insbesondere die Untersuchung von Klassenr&#228;umen mit unterschiedlich guter raumakustischer Optimierung ist hier bei verschiedenen Abst&#228;nden zwischen Schallquelle (Lehrer) und H&#246;rposition (Sch&#252;ler) von Interesse. Ebenso soll der Einfluss der Raumakustik auf das Richtungsh&#246;ren untersucht werden. Dank der Raumsimulation k&#246;nnen nun H&#246;rsituationen unter realit&#228;tsnahen aber kontrollierten akustischen Bedingungen im Labor rekonstruiert werden.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion and outlook">
      <MainHeadline>Discussion and outlook</MainHeadline><Pgraph>The aim of this work was the extension of our custom free field reproduction system by a room simulation procedure and the subsequent evaluation of the setup. For this purpose, room simulations were performed for a model auditorium and the acoustic parameters RT and D50 were compared between the predictions of the model and the laboratory reproduction. In addition, the effect of two different reverberation times on speech perception in noise and SRM was tested by introducing two different absorption levels.</Pgraph><Pgraph>Similar to other works, a room simulation based on reflectograms from a room model was realized <TextLink reference="2"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink> and supplemented by the diffuse reverberation using a feedback delay network. For the reproduction of the initial reflections, the approach of the nearest loudspeaker was chosen. This method was used because the integration into the already existing test setup with 128 loudspeakers could be done without technical modifications of our local reproduction room. Furthermore, the small diameter of the individual loudspeakers (and the resulting small loudspeaker distance) allow an extremely good angular resolution in the horizontal plane. Other systems with fewer loudspeakers, which have already been described in the acoustic room simulation literature, apply &#8220;Higher Order Ambisonics&#8221; (HOA, e.g. <TextLink reference="2"></TextLink>), Vector Base Amplitude Panning (VBAP, <TextLink reference="18"></TextLink>) or Wave Field Synthesis (WFS, <TextLink reference="19"></TextLink>). Methods such as HOA and WFS have the disadvantage, that due to the limited number of loudspeakers or due to the not infinitely small distance between two loudspeakers, a more or less pronounced spatial subsampling (so-called &#8220;spatial aliasing&#8221;) occurs, i.e. the synthesized sound field is no longer physically correct above the alias frequency. With WFS, the alias frequency is usually around 1&#8211;4 kHz, depending on the arrangement and speaker distance. The method of the nearest loudspeaker used here was favored, since it always allows physically correct reproduction of the individual reflections in the entire relevant frequency range. The disadvantage of the system described here is that only a playback in the horizontal plane is possible. To enable a three-dimensional room simulation, the use of HOA or VBAP is recommended. To accomplish this, loudspeakers with elevated positions must be installed. If the listener position is held constant in the so-called &#8220;sweet spot&#8221; (center of the playback array), a sufficiently correct spatial resolution for hearing research can also be achieved when using HOA with the appropriate playback setup. In the three-dimensional implementation, the diffuse reverberation can also be generated with 1<Superscript>st</Superscript> order ambisonics based on the envelope <TextLink reference="2"></TextLink>. Instead of using a room model, three-dimensional microphone recordings (i.e. measured impulse responses) of real rooms can also be used for room simulation with the HOA reproduction method. </Pgraph><Pgraph>While the method used here cannot generate dynamically moving sound sources, this is possible with other methods. Depending on the problem and the desired listening situation, the choice of the reproduction method used must therefore be considered individually with the respective advantages and disadvantages. The studies of Grimm et al. <TextLink reference="20"></TextLink> and Ahrens et al. <TextLink reference="21"></TextLink> provide a good overview of which methods are best suited for which problem. </Pgraph><Pgraph>The evaluation of the room simulation presented here showed a good agreement between measurements and model data. Both RT and D50 showed larger deviations only below the cut-off frequency of the local anechoic chamber. The auditorium simulated in this study had a volume of 3,520 m&#179; and according to the measurements a maximum RT of 580 ms. </Pgraph><Pgraph>The reverberation times <TextGroup><PlainText>accom</PlainText></TextGroup>plished in the present study were well below the recommended maximum average reverberation time of 900 ms for teaching&#47;communication (1.2 s for speech&#47;lecture) as required by the DIN standard <TextLink reference="7"></TextLink>. Nevertheless, speech intelligibility was already severely impaired. </Pgraph><Pgraph>The results on speech perception in source arrangement S0N0 condition 3 (60&#37; absorption, RT 580 ms) showed a deterioration of 2.7 dB SNR against FF situation. In condition 2 (80&#37; absorption, RT 390 ms), the deterioration was 1.6 dB SNR. Due to early reflections, the emitted sound reaches the ear several times with small delay, additionally late reflections cause the sound level to decrease slowly. In speech listening tasks, this leads to a masking of speech components by sound reflections. Individual phonemes may be masked, which leads to reduced speech perception. The RT and D50 also express this: while in condition 1 (free field condition) there is a low RT and 100&#37; of the sound energy is integrated within 50 ms, in condition 3 an average of 13&#37; of the sound energy occurred after the first 50 ms after direct sound incidence. This suggests an increased masking of speech by reverberation.</Pgraph><Pgraph>In the S0N60 source setup at 60&#37; absorption, the SRT deteriorated by 7.9 dB SNR compared to the FF condition. This was particularly reflected in the SRM. Only 1.3 dB SNR improvement could be achieved by spatial separation of noise and target sources. Figure 4 <ImgLink imgNo="4" imgType="figure"/> shows the ILDs of the three measured acoustic conditions as a function of frequency. Between condition 1 (free field) and condition 3 (60&#37; absorption), reduced ILDs are shown over the entire frequency spectrum. Between 3,00<TextGroup><PlainText>0 H</PlainText></TextGroup>z and 5,00<TextGroup><PlainText>0 H</PlainText></TextGroup>z the ILD difference is at its maximum with about 10 dB. This ILD reduction explains the significantly reduced SRM under reverberation, the shadowing of the sound by the head is reduced in a diffuse sound field. The SNR improvement in the contralateral ear caused by the head shadow effect is therefore significantly lower and results in a reduced effect. Kidd and co-authors <TextLink reference="18"></TextLink> demonstrated the effect of reverberation on the SRM in a room lined with plexiglass in one condition and foam in the other. The benefit of spatial separation of target sound and noise by 90&#176; decreased from 8 dB SNR to <TextGroup><PlainText>2 d</PlainText></TextGroup>B SNR in the plexiglass condition and is in line with the results shown here. </Pgraph><Pgraph>The results confirm the long known observation of the impact of room acoustics on speech perception. Room acoustics with very small reverberation time promote good speech perception. A long reverberation time, on the other hand, leads to increased masking of the direct speech signal by additional reverberation components of the background noise and the target signal itself. Long reverberation times therefore have a negative effect on speech perception. The influence of room acoustics is currently not taken into account in clinical audiological test procedures for speech perception. The determination of hearing performance by means of a room simulation system is a useful supplement to established audiological measurement procedures. In the future, hearing tests with hearing aid and cochlear implant users should be performed in simulated acoustic listening environments. This will provide additional information on the impact of the type of hearing aid and the effect of signal pre-processing on speech perception. A supplement to the measurement conditions is planned and should lead to further insights into the effect of room acoustic parameters on speech perception. Especially the investigation of classrooms with different room acoustic properties and different distances between sound source (teacher) and listening position (student) are of interest. The influence of room acoustics on directional hearing will also be investigated. Thanks to room simulation, listening situations can now be reconstructed in the laboratory under realistic but controlled acoustic conditions.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkungen">
      <MainHeadline>Anmerkungen</MainHeadline><SubHeadline>Interessenkonflikte</SubHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.</Pgraph><SubHeadline>Danksagung </SubHeadline><Pgraph>Die Autoren danken der Firma Cochlear Deutschland GmbH &#38; Co. KG. sowie der Moessner-Stiftung Frankfurt am Main f&#252;r die Unterst&#252;tzung der Studie.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Notes">
      <MainHeadline>Notes</MainHeadline><SubHeadline>Competing interests</SubHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph><SubHeadline>Acknowledgement</SubHeadline><Pgraph>The authors thank the company Cochlear Deutschland GmbH &#38; Co. KG and the Moessner Foundation Frankfurt am Main for supporting the study. </Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Cox RM</RefAuthor>
        <RefAuthor>Alexander GC</RefAuthor>
        <RefTitle>Hearing aid benefit in everyday environments</RefTitle>
        <RefYear>1991</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>127-39</RefPage>
        <RefTotal>Cox RM, Alexander GC. Hearing aid benefit in everyday environments. Ear Hear. 1991 Apr;12(2):127-39. DOI: 10.1097&#47;00003446-199104000-00009</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00003446-199104000-00009</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Minnaar P</RefAuthor>
        <RefAuthor>Favrot S</RefAuthor>
        <RefAuthor>Buchholz JM</RefAuthor>
        <RefTitle>Improving hearing aids through listening tests in a virtual sound environment</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Hear J</RefJournal>
        <RefPage>40-42</RefPage>
        <RefTotal>Minnaar P, Favrot S, Buchholz JM. Improving hearing aids through listening tests in a virtual sound environment. Hear J. 2010;63(10):40-42. DOI: 10.1097&#47;01.HJ.0000389926.64797.3e</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;01.HJ.0000389926.64797.3e</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Revit LJ</RefAuthor>
        <RefAuthor>Killion MC</RefAuthor>
        <RefAuthor>Compton-Conley CL</RefAuthor>
        <RefTitle>Developing and testing a laboratory sound system that yields accurate real-world results</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Hear Rev</RefJournal>
        <RefPage>54</RefPage>
        <RefTotal>Revit LJ, Killion MC, Compton-Conley CL. Developing and testing a laboratory sound system that yields accurate real-world results. Hear Rev. 2007;14(11):54.	</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Weissgerber T</RefAuthor>
        <RefTitle>Ein Wiedergabesystem mit Wellenfeldsynthese zur Simulation allt&#228;glicher H&#246;rumgebungen</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>HNO</RefJournal>
        <RefPage>265-271</RefPage>
        <RefTotal>Weissgerber T. Ein Wiedergabesystem mit Wellenfeldsynthese zur Simulation allt&#228;glicher H&#246;rumgebungen &#91;A sound reproduction system using wave field synthesis to simulate everyday listening conditions&#93;. HNO. 2019 Apr;67(4):265-271. DOI: 10.1007&#47;s00106-019-0635-5	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s00106-019-0635-5</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Kuttruff H</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2016</RefYear>
        <RefBookTitle>Room Acoustics</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kuttruff H. Room Acoustics. 6th Ed. Boca Raton: CRC Press; 2016. DOI: 10.1201&#47;9781315372150</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1201&#47;9781315372150</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Bradley JS</RefAuthor>
        <RefAuthor>Sato H</RefAuthor>
        <RefAuthor>Picard M</RefAuthor>
        <RefTitle>On the importance of early reflections for speech in rooms</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>3233-44</RefPage>
        <RefTotal>Bradley JS, Sato H, Picard M. On the importance of early reflections for speech in rooms. J Acoust Soc Am. 2003 Jun;113(6):3233-44. DOI: 10.1121&#47;1.1570439	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.1570439</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Anonym</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2016</RefYear>
        <RefBookTitle>DIN 18041:2016-03. H&#246;rsamkeit in R&#228;umen - Anforderungen, Empfehlungen und Hinweise f&#252;r die Planung</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>DIN 18041:2016-03. H&#246;rsamkeit in R&#228;umen - Anforderungen, Empfehlungen und Hinweise f&#252;r die Planung. Berlin: Beuth Verlag; 2016.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Weissgerber T</RefAuthor>
        <RefAuthor>Bandeira M</RefAuthor>
        <RefAuthor>Brendel M</RefAuthor>
        <RefAuthor>St&#246;ver T</RefAuthor>
        <RefAuthor>Baumann U</RefAuthor>
        <RefTitle>Impact of Microphone Configuration on Speech Perception of Cochlear Implant Users in Traffic Noise</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Otol Neurotol</RefJournal>
        <RefPage>e198-e205</RefPage>
        <RefTotal>Weissgerber T, Bandeira M, Brendel M, St&#246;ver T, Baumann U. Impact of Microphone Configuration on Speech Perception of Cochlear Implant Users in Traffic Noise. Otol Neurotol. 2019 03;40(3):e198-e205. DOI: 10.1097&#47;MAO.0000000000002135	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;MAO.0000000000002135</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Weissgerber T</RefAuthor>
        <RefAuthor>Rader T</RefAuthor>
        <RefAuthor>Baumann U</RefAuthor>
        <RefTitle>Impact of a moving noise masker on speech perception in cochlear implant users</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>PLoS ONE</RefJournal>
        <RefPage>e0126133</RefPage>
        <RefTotal>Weissgerber T, Rader T, Baumann U. Impact of a moving noise masker on speech perception in cochlear implant users. PLoS ONE. 2015;10(5):e0126133. DOI: 10.1371&#47;journal.pone.0126133</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1371&#47;journal.pone.0126133</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Weissgerber T</RefAuthor>
        <RefAuthor>Rader T</RefAuthor>
        <RefAuthor>Baumann U</RefAuthor>
        <RefTitle>Effectiveness of Directional Microphones in Bilateral&#47;Bimodal Cochlear Implant Users-Impact of Spatial and Temporal Noise Characteristics</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Otol Neurotol</RefJournal>
        <RefPage>e551-e557</RefPage>
        <RefTotal>Weissgerber T, Rader T, Baumann U. Effectiveness of Directional Microphones in Bilateral&#47;Bimodal Cochlear Implant Users-Impact of Spatial and Temporal Noise Characteristics. Otol Neurotol. 2017 12;38(10):e551-e557. DOI: 10.1097&#47;MAO.0000000000001524	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;MAO.0000000000001524</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Weissgerber T</RefAuthor>
        <RefAuthor>Neumayer HL</RefAuthor>
        <RefAuthor>Baumann U</RefAuthor>
        <RefTitle>Sprachverst&#228;ndlichkeitsschwellen mit Cochlea Implantat und mit CI-Simulation in Abh&#228;ngigkeit vom Pegelverh&#228;ltnis zwischen Direktschall und Diffusschall</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>14-9</RefPage>
        <RefTotal>Weissgerber T, Neumayer HL, Baumann U. Sprachverst&#228;ndlichkeitsschwellen mit Cochlea Implantat und mit CI-Simulation in Abh&#228;ngigkeit vom Pegelverh&#228;ltnis zwischen Direktschall und Diffusschall. Z Audiol. 2016;55(1):14-9.	</RefTotal>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Christensen CL</RefAuthor>
        <RefAuthor>Rindel JH</RefAuthor>
        <RefTitle>A new scattering method that combines roughness and diffraction effects</RefTitle>
        <RefYear>2005</RefYear>
        <RefBookTitle>Proceedings Forum Acusticum; Budapest, Hungary</RefBookTitle>
        <RefPage>344-52</RefPage>
        <RefTotal>Christensen CL, Rindel JH. A new scattering method that combines roughness and diffraction effects. In: Proceedings Forum Acusticum; 2005; Budapest, Hungary. p. 344-52.</RefTotal>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Seeber BU</RefAuthor>
        <RefAuthor>Kerber S</RefAuthor>
        <RefAuthor>Hafter ER</RefAuthor>
        <RefTitle>A system to simulate and reproduce audio-visual environments for spatial hearing research</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Hear Res</RefJournal>
        <RefPage>1-10</RefPage>
        <RefTotal>Seeber BU, Kerber S, Hafter ER. A system to simulate and reproduce audio-visual environments for spatial hearing research. Hear Res. 2010 Feb;260(1-2):1-10. DOI: 10.1016&#47;j.heares.2009.11.004	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.heares.2009.11.004</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Favrot S</RefAuthor>
        <RefAuthor>Buchholz</RefAuthor>
        <RefAuthor>J</RefAuthor>
        <RefTitle>M. LoRA: A Loudspeaker-Based Room Auralization System</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Acta Acustica</RefJournal>
        <RefPage>364-75</RefPage>
        <RefTotal>Favrot S, Buchholz, J. M. LoRA: A Loudspeaker-Based Room Auralization System. Acta Acustica. 2010;96(2):364-75. DOI: 3813&#47;AAA.918285	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;3813&#47;AAA.918285</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Wagener K</RefAuthor>
        <RefAuthor>K&#252;hnel V</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache. Teil I: Design des Oldenburger Satztests</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>4-15</RefPage>
        <RefTotal>Wagener K, K&#252;hnel V, Kollmeier B. Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache. Teil I: Design des Oldenburger Satztests. Z Audiol. 1999;38(1):4-15.	</RefTotal>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Wagener K</RefAuthor>
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache. Teil II: Optimierung des Oldenburger Satztests</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>44-56</RefPage>
        <RefTotal>Wagener K, Brand T, Kollmeier B. Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache. Teil II: Optimierung des Oldenburger Satztests. Z Audiol. 1999;38(2):44-56.	</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Wagener K</RefAuthor>
        <RefAuthor>Brand T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache. Teil III: Evaluation des Oldenburger Satztests</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Z Audiol</RefJournal>
        <RefPage>86-95</RefPage>
        <RefTotal>Wagener K, Brand T, Kollmeier B. Entwicklung und Evaluation eines Satztests f&#252;r die deutsche Sprache. Teil III: Evaluation des Oldenburger Satztests. Z Audiol. 1999;38(3):86-95.	</RefTotal>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Pulkki V</RefAuthor>
        <RefTitle>Virtual sound source positioning using vector base amplitude panning</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>J Audio Eng Soc</RefJournal>
        <RefPage>456-66</RefPage>
        <RefTotal>Pulkki V. Virtual sound source positioning using vector base amplitude panning. J Audio Eng Soc. 1997;45(6):456-66.	</RefTotal>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Berkhout AJ</RefAuthor>
        <RefTitle>A holographic approach to acoustic control</RefTitle>
        <RefYear>1988</RefYear>
        <RefJournal>J Audio Eng Soc</RefJournal>
        <RefPage>977-95</RefPage>
        <RefTotal>Berkhout AJ. A holographic approach to acoustic control. J Audio Eng Soc. 1988;36(12):977-95. DOI: 10.1111&#47;j.1532-5415.1988.tb05800.x	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1532-5415.1988.tb05800.x</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Grimm G</RefAuthor>
        <RefAuthor>Ewert S</RefAuthor>
        <RefAuthor>Hohmann V</RefAuthor>
        <RefTitle>Multi-channel loudspeaker reproduction and virtual acoustic environments in the context of hearing aid evaluation</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>2999</RefPage>
        <RefTotal>Grimm G, Ewert S, Hohmann V. Multi-channel loudspeaker reproduction and virtual acoustic environments in the context of hearing aid evaluation. J Acoust Soc Am. 2016;140(4):2999. DOI: 10.1121&#47;1.4969292	</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1121&#47;1.4969292</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Ahrens A</RefAuthor>
        <RefAuthor>Marschall M</RefAuthor>
        <RefAuthor>Dau T</RefAuthor>
        <RefTitle>Measuring and modeling speech intelligibility in real and loudspeaker-based virtual sound environments</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Hear Res</RefJournal>
        <RefPage>307-17</RefPage>
        <RefTotal>Ahrens A, Marschall M, Dau T. Measuring and modeling speech intelligibility in real and loudspeaker-based virtual sound environments. Hear Res. 2019 06;377:307-17. DOI: 10.1016&#47;j.heares.2019.02.003</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.heares.2019.02.003</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Kidd G</RefAuthor>
        <RefAuthor>Mason CR</RefAuthor>
        <RefAuthor>Brughera A</RefAuthor>
        <RefAuthor>Hartmann WM</RefAuthor>
        <RefTitle>The Role of Reverberation in Release from Masking Due to Spatial Separation of Sources for Speech Identification</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Acta Acustica</RefJournal>
        <RefPage>526-36</RefPage>
        <RefTotal>Kidd G, Mason CR, Brughera A, Hartmann WM. The Role of Reverberation in Release from Masking Due to Spatial Separation of Sources for Speech Identification. Acta Acustica. 2005;91(3):526-36.	</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Nachhallzeit RT pro Oktavband; angegeben ist die Oktavmittenfrequenz.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 1: Reverberation time RT per octave band; indicated is the octave center frequency.</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Deutlichkeitsgrad D50 pro Oktavband; angegeben ist die Oktavmittenfrequenz und im Mittel &#252;ber die Frequenzb&#228;nder.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 2: Degree of clarity D50 per octave band (indicating the octave centre frequency) and averaged over the frequency bands</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="270" width="823">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Linke Abbildung: Blick von oben auf das H&#246;rsaalmodell mit Empf&#228;nger, blauer Punkt (1) und Schallquellen: P4 (0&#176;) und P1&#47;P7 (&#177;60&#176;); rechte Abbildung: Schallausbreitung im dreidimensionalen H&#246;rsaalmodell von Quelle P1</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Left figure: top view of lecture hall model with receiver: blue dot (1) and sound sources: P4 (0&#176;) and P1&#47;P7 (&#177;60&#176;); right figure: sound propagation in the three-dimensional auditorium model from source P1</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="346" width="512">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Anordnung der 128 Lautsprecher des Wiedergabesystems im reflexionsarmen Raum</Mark1><LineBreak></LineBreak>Mittelpunkt (H&#246;rposition) mit skizziertem Probanden; Kreise: Lautsprecher, deren Position den simulierten Schallquellen P1, P4 und P7 entsprechen. Der Direktschall wird durch schwarze Pfeile skizziert, fr&#252;he Reflexionen und diffuser Hall durch graue Pfeile.</Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Arrangement of the 128 loudspeakers of the sound reproduction system in the anechoic chamber</Mark1><LineBreak></LineBreak>Centre (listening position) with sketched test person; circles: speakers with positions corresponding to the simulated sound sources P1, P4 and P7; direct sound is outlined by black arrows, early reflections and diffuse reverberation by grey arrows.</Pgraph></Caption>
        </Figure>
        <Figure format="png" height="563" width="851">
          <MediaNo>3</MediaNo>
          <MediaID language="de">3de</MediaID>
          <MediaID language="en">3en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 3: Flussdiagramm der Raumsimulation mit Direktschall, Erstreflexionen und diffusem Hall.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 3: Flow chart of the room simulation with direct sound, early reflections and diffuse reverberation.</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="388" width="471">
          <MediaNo>4</MediaNo>
          <MediaID language="de">4de</MediaID>
          <MediaID language="en">4en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 4: ILDs (dB) als Funktion der Frequenz f&#252;r alle drei Messkonditionen: Kondition 1: Freifeld, Kondition 2: 80&#37; Absorption, Kondition 3: 60&#37; Absorption</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 4: ILDs (dB) as a function of frequency for all three measurement conditions: condition 1: free field, condition 2: 80&#37; absorption, condition 3: 60&#37; absorption</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="369" width="459">
          <MediaNo>5</MediaNo>
          <MediaID language="de">5de</MediaID>
          <MediaID language="en">5en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 5: Sprachverst&#228;ndlichkeits-Schwelle (SVS) f&#252;r drei Messkonditionen: 1. Freifeld, 2. RT 390 ms (80 &#37; Absorption), </Mark1><LineBreak></LineBreak><Mark1>3. RT 580 ms (60 &#37; Absorption); Messungen jeweils f&#252;r die Sprachwiedergabe aus 0&#176; und St&#246;rschallwiedergabe aus 0&#176; und 60&#176; (S0N0 und S0N60)</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 5: Speech reception threshold (SRT), for three measurement conditions: 1. free field, 2. RT 390 ms (80&#37; absorption), 3. RT 580 ms (60 &#37; absorption); measurements for speech reproduction from 0&#176; and noise reproduction from 0&#176; and 60&#176; (S0N0 and S0N60)</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="347" width="455">
          <MediaNo>6</MediaNo>
          <MediaID language="de">6de</MediaID>
          <MediaID language="en">6en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 6: Spatial release from masking (SRM) aus S0N0 und S0N60 der drei Messkonditionen: 1. Freifeld, 2. RT 390 ms (80 &#37; Absorption), 3. RT 580 ms (60&#37; Absorption)</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 6: Spatial release from masking (SRM) from S0N0 and S0N60 of the three measurement conditions: 1. free field, 2. RT 390 ms (80&#37; absorption), and 3. RT 580 ms (60&#37; absorption)</Mark1></Pgraph></Caption>
          <AltText language="en">,</AltText>
        </Figure>
        <NoOfPictures>6</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>