<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000814</Identifier>
    <IdentifierDoi>10.3205/zma000814</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0008146</IdentifierUrn>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <ArticleType language="en">research article</ArticleType>
    <TitleGroup>
      <Title language="de">Implementierung und Erprobung eines Lernziel-basierten Evaluationssystems im Studium der Humanmedizin</Title>
      <TitleTranslated language="en">Piloting an outcome-based programme evaluation tool in undergraduate medical education</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Raupach</Lastname>
          <LastnameHeading>Raupach</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
          <AcademicTitle>PD Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME-D</AcademicTitleSuffix>
        </PersonNames>
        <Address language="de">Universit&#228;tsmedizin G&#246;ttingen, Abteilung Kardiologie &#38; Pneumologie, 37099 G&#246;ttingen, Deutschland, Tel.: &#43;49 (0)551&#47;39-8922, Fax: &#43;49 (0)551&#47;39-6887<Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Abteilung Kardiologie &#38; Pneumologie, G&#246;ttingen, Deutschland</Affiliation><Affiliation>University College London, Department of Clinical, Educational and Health Psychology, London WC1E 7HB, United Kingdom</Affiliation></Address>
        <Address language="en">University Medical Centre G&#246;ttingen, Dept. of Cardiology &#38; Pneumology, 37099 G&#246;ttingen, Germany, Phone &#43;49 (0)551&#47;39-8922, Fax: &#43;49 (0)551&#47;39-6887<Affiliation>University Medical Centre G&#246;ttingen, Dept. of Cardiology &#38; Pneumology, G&#246;ttingen, Germany</Affiliation><Affiliation>University College London, Department of Clinical, Educational and Health Psychology, London WC1E 7HB, United Kingdom</Affiliation></Address>
        <Email>raupach&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schiekirka</Lastname>
          <LastnameHeading>Schiekirka</LastnameHeading>
          <Firstname>Sarah</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Studiendekanat, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Study Deanery, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Email>sarah.schiekirka&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>M&#252;nscher</Lastname>
          <LastnameHeading>M&#252;nscher</LastnameHeading>
          <Firstname>Christian</Firstname>
          <Initials>C</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Studiendekanat, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Study Deanery, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Email>muenscher&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Bei&#223;barth</Lastname>
          <LastnameHeading>Bei&#223;barth</LastnameHeading>
          <Firstname>Tim</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Abteilung Medizinische Statistik, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Dept. of Medical Statistics, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Email>tim.beissbarth&#64;ams.med.uni-goettingen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Himmel</Lastname>
          <LastnameHeading>Himmel</LastnameHeading>
          <Firstname>Wolfgang</Firstname>
          <Initials>W</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Abteilung Allgemeinmedizin, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Dept. of General Practice, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Email>whimmel&#64;gwdg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Burckhardt</Lastname>
          <LastnameHeading>Burckhardt</LastnameHeading>
          <Firstname>Gerhard</Firstname>
          <Initials>G</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Medizinische Fakult&#228;t G&#246;ttingen, Studiendekan, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Dean for Study Affairs, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Email>gerhard.burckhardt&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Pukrop</Lastname>
          <LastnameHeading>Pukrop</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Abteilung H&#228;matologie &#38; Onkologie, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Dept. of Haematology and Oncology, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Email>tobias.pukrop&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">evaluation</Keyword>
      <Keyword language="en">self-assessment</Keyword>
      <Keyword language="en">performance</Keyword>
      <Keyword language="en">learning objective</Keyword>
      <Keyword language="en">congruence</Keyword>
      <Keyword language="en">clinical studies</Keyword>
      <Keyword language="de">Evaluation</Keyword>
      <Keyword language="de">Selbsteinsch&#228;tzung</Keyword>
      <Keyword language="de">LOM</Keyword>
      <Keyword language="de">Lernziel</Keyword>
      <Keyword language="de">Kongruenz</Keyword>
      <Keyword language="de">klinisches Studium</Keyword>
      <SectionHeading language="en">medicine</SectionHeading>
      <SectionHeading language="de">Humanmedizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20110708</DateReceived>
    <DateRevised>20111212</DateRevised>
    <DateAccepted>20120112</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20120515</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>29</Volume>
        <Issue>3</Issue>
        <JournalTitle>GMS Zeitschrift f&#252;r Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>44</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Zielsetzung: </Mark1>Aktuell werden an den deutschen medizinischen Fakult&#228;ten unterschiedliche Konzepte zur leistungsorientierten Mittelvergabe (LOM) in der Lehre diskutiert. Die Umsetzung scheitert mitunter am Mangel valider Messkriterien zur Beurteilung der Lehrqualit&#228;t. Neben der Struktur und den Prozessen der Lehre sollte das Ergebnis der Lehre im Mittelpunkt der Qualit&#228;tsbewertung stehen. Ziele dieser Arbeit waren die Erprobung eines neuen, lernzielbezogenen Evaluationssystems im klinischen Abschnitt des Studiums der Humanmedizin und der Vergleich der Ergebnisse mit den Daten eines traditionellen Evaluationsverfahrens.</Pgraph><Pgraph><Mark1>Methodik: </Mark1>Aus studentischen Selbsteinsch&#228;tzungen zu Beginn und Ende eines jeden Lehrmoduls wurde nach einer neu entwickelten Formel der lernzielbezogene, prozentuale Lernerfolg berechnet. Die Lernerfolgs-Mittelwerte pro Modul wurden mit traditionellen Evaluationsparametern, insbesondere mit Globalbewertungen, ins Verh&#228;ltnis gesetzt.</Pgraph><Pgraph><Mark1>Ergebnisse: </Mark1>Der mittels vergleichender Selbsteinsch&#228;tzungen berechnete Lernerfolg und die Globalbewertungen produzierten deutlich unterschiedliche Rangfolgen der 21 klinischen Module. Zwischen dem Lernerfolg und den Globalbewertungen fand sich keine statistisch signifikante Korrelation. Allerdings korrelierten die Globalbewertungen stark mit den studentischen Erwartungen vor Modulbeginn und mit strukturellen und prozeduralen Parametern der Lehre (Pearson&#8217;s r zwischen 0,7 und 0,9). </Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>Die Messung des Lernzuwachses mittels vergleichender studentischer Selbsteinsch&#228;tzungen kann die traditionelle Evaluation um eine wichtige Dimension erweitern. Im Unterschied zu studentischen Globalbewertungen ist das neue Instrument lernzielbezogen und unabh&#228;ngiger vom Einfluss Konstrukt-irrelevanter Parameter. Hinsichtlich der Entwicklung eines LOM-Algorithmus eignet sich das neue Instrument gut zur Beurteilung der Lehrqualit&#228;t. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Aims:</Mark1> Different approaches to performance-oriented allocation of resources according to teaching quality are currently being discussed within German medical schools. The implementation of these programmes is impeded by a lack of valid criteria to measure teaching quality. An assessment of teaching quality should include structural and procedural aspects but focus on learning outcome itself. The aim of this study was to implement a novel, outcome-based evaluation tool within the clinical phase of a medical curriculum and address differences between the novel tool and traditional evaluation methods. </Pgraph><Pgraph><Mark1>Methods: </Mark1>Student self-assessments before and after completion of a teaching module were used to compute performance gains for specific learning objectives. Mean performance gains in each module were compared to student expectations before the module and data derived from a traditional evaluation tool using overall course ratings at the end of the module.</Pgraph><Pgraph><Mark1>Results: </Mark1>A ranking of the 21 modules according to computed performance gains yielded entirely different results than module rankings based on overall course ratings. There was no significant correlation between performance gain and overall ratings. However, the latter were significantly correlated to student expectations before entering the module as well as structural and procedural parameters (Pearson&#8217;s r 0.7-0.9).</Pgraph><Pgraph><Mark1>Conclusion: </Mark1>Performance gain computed from comparative self-assessments adds an important new dimension to course evaluation in medical education. In contrast to overall course ratings, the novel tool is less heavily confounded by construct-irrelevant factors. Thus, it appears to be more appropriate than overall course ratings in determining teaching quality and developing algorithms to guide performance-oriented resource allocation in medical education. </Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Auf der Grundlage der Anregungen des Wissenschaftsrates <TextLink reference="1"></TextLink> fand im Jahr 2009 an &#252;ber der H&#228;lfte aller Medizinischen Fakult&#228;ten in Deutschland eine leistungsorientierte Mittelvergabe (LOM) f&#252;r gute Lehre statt. </Pgraph><Pgraph>Auch die Verteilung von Landesmitteln auf einzelne Fakult&#228;ten orientiert sich zunehmend an Leistungsparametern. Diesbez&#252;glich wurden in Nordrhein-Westfalen verschiedene Qualit&#228;tskriterien erarbeitet, die in drei Ebenen zusammengefasst wurden <TextLink reference="2"></TextLink>: Struktur-, Prozess- und Ergebnisqualit&#228;t der Lehre. W&#228;hrend die Evaluation der Strukturen (Ressourcen, Stundenpl&#228;ne) und Prozesse (didaktische Gestaltung der Lehre, Pr&#252;fungen) nicht im Mittelpunkt der Betrachtungen stand, schlugen die Autoren vor, zur Beurteilung des Studienergebnisses globale Parameter wie die studentischen Leistungen im Staatsexamen, die Studiendauer und die Retentionsrate heranzuziehen. Diese Kriterien sind insbesondere im klinischen Studienabschnitt nicht nach Modulen und F&#228;chern aufgeschl&#252;sselt und eignen sich somit praktisch nicht zur Verteilung von LOM-Mitteln innerhalb einer Fakult&#228;t. Es ist somit notwendig, Qualit&#228;tsindikatoren zu entwickeln, die zum Ranking von Lehrveranstaltungen oder F&#228;chern innerhalb einer Fakult&#228;t herangezogen werden k&#246;nnen. Diese Indikatoren sollten sich auch auf Fakult&#228;tsebene auf Strukturen, Prozesse und das Ergebnis der Lehre beziehen.</Pgraph><Pgraph>Eine Erhebung im Jahre 2009 ergab, dass an vielen Fakult&#228;ten studentische Evaluationen die Grundlage f&#252;r die Zuteilung von LOM-Lehre waren <TextLink reference="3"></TextLink>. Gebr&#228;uchliche Evaluationsb&#246;gen beinhalten &#252;berwiegend Fragen zu strukturellen und organisatorischen Aspekten sowie globale Einsch&#228;tzungen auf Schulnotenskalen. Zwar erlauben diese Instrumente m&#246;glicherweise eine Beurteilung von Strukturen und Prozessen; inwieweit hieran aber auch die Ergebnisqualit&#228;t abgelesen werden kann, ist bislang unklar. </Pgraph><Pgraph>Wenngleich verschiedene Definitionen des gew&#252;nschten &#8222;Ergebnisses&#8220; im Medizinstudium denkbar sind, liegt es nahe, den studentischen Lernerfolg als eine m&#246;gliche Messgr&#246;&#223;e f&#252;r das Studien-Ergebnis festzulegen. W&#252;nschenswert w&#228;re folglich ein Evaluationsinstrument, mit dem der in einer Veranstaltung erzielte Lernerfolg abgesch&#228;tzt werden kann. An der Medizinischen Fakult&#228;t G&#246;ttingen wurde k&#252;rzlich ein entsprechendes lernzielbasiertes Evaluationsinstrument entwickelt, dessen Reproduzierbarkeit und <Mark2>Kriteriums</Mark2>-Validit&#228;t belegt werden konnten <TextLink reference="4"></TextLink>. Somit steht neben der traditionellen Evaluation mit den Hauptzielgr&#246;&#223;en &#8222;Struktur- und Prozessqualit&#228;t&#8220; nun auch ein neues Instrument mit der Zielgr&#246;&#223;e &#8222;Lernerfolg&#8220; zur Verf&#252;gung. Zur Untersuchung der <Mark2>diskriminanten</Mark2> Validit&#228;t des Instruments sollten in der vorliegenden Studie folgende Forschungsfragen beantwortet werden: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Ergibt sich auf der Grundlage des lernzielbasierten Instruments eine andere Rangfolge der Lehrveranstaltungen als auf der Grundlage traditioneller Evaluationsparameter&#63; Es wird die Hypothese aufgestellt, dass durch beide Verfahren unterschiedliche Aspekte der Lehre erfasst werden und sich daher eine Rangfolge der Lehrveranstaltungen nach strukturellen&#47;prozeduralen Kriterien deutlich von einer Rangfolge der Veranstaltungen nach dem hierin erzielten Lernerfolg unterscheidet.</ListItem><ListItem level="1" levelPosition="2" numString="2.">Inwieweit korrelieren die Erwartungshaltung der Studierenden und traditionelle Evaluationsparameter untereinander sowie mit den Ergebnissen der lernzielbezogenen Evaluation&#63; Es wird die Hypothese formuliert, dass traditionelle Evaluationsparameter untereinander starke Korrelationen aufweisen. Da Strukturen und Prozesse ebenfalls einen Einfluss auf die Lehrqualit&#228;t aus&#252;ben und somit auch den Lernerfolg beeinflussen k&#246;nnen, werden zwischen den Ergebnissen der beiden Evaluationsinstrumente moderate Korrelationen erwartet.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>Following suggestions made by the German Council of Science and Humanities <TextLink reference="1"></TextLink>, half of all German medical schools internally allocated resources based on teaching performance in 2009. Such performance measures are also increasingly used to distribute funds to different medical schools within German federal states. In North Rhine-Westphalia, indicators used for this purpose can be attributed to three levels <TextLink reference="2"></TextLink>: structural, procedural and outcome quality of teaching. Upon introduction of their algorithm, medical school Deans in North Rhine-Westphalia acknowledged the importance of structures (resources, time-tables) and processes (instructional format, examinations) but also suggested to include global performance indicators such as student results in high-stakes examinations, study time and drop-out rates as measures of study outcome. Within the clinical phase of undergraduate medical education, these parameters cannot be broken down to clinical specialties and are thus of little use to guide performance-dependent resource allocation within a particular medical school. Consequently, there is a need to develop quality indicators referring to structures, processes and teaching outcome that can be used to rank courses or specialities.</Pgraph><Pgraph>A survey among German medical schools carried out in 2009 showed that many schools used evaluation data (i.e. student ratings) to guide internal fund distribution <TextLink reference="3"></TextLink>. Traditional evaluation forms are predominantly made up of questions regarding structural and organisational aspects of teaching as well as global ratings on six-point scales resembling those used in German schools (with 1 being the best mark). While these instruments likely allow some appraisal of structures and processes, the extent to which they actually measure outcome quality is unknown. </Pgraph><Pgraph>The definition of desired outcomes in undergraduate medical education is a matter of debate; however, it is reasonable to suggest student performance gain as a possible primary outcome variable. Ideally, an evaluation tool would provide some measure of performance gain. Such a tool has been developed at G&#246;ttingen Medical School, and its reproducibility and <Mark2>criterion</Mark2> validity have recently been established <TextLink reference="4"></TextLink>. By introducing &#8216;learning success&#8217; as an outcome variable, it adds to traditional evaluation methods focusing on structural and procedural aspects of teaching quality. </Pgraph><Pgraph>In order to establish <Mark2>discriminant</Mark2> validity of the novel evaluation tool this study aimed at answering the following research questions:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Is there a difference between course rankings derived from performance gain data and traditional evaluation parameters&#63; We hypothesized that the two approaches cover different aspects of teaching. As a consequence, rankings based on structural&#47;procedural criteria should be considerably different from rankings based on performance gain.</ListItem><ListItem level="1" levelPosition="2" numString="2.">Is there a correlation between student expectations towards specific courses, traditional evaluation parameters obtained at the end of courses and performance gain data&#63; We hypothesized that traditional evaluation parameters would be highly correlated with each other. Since structural and procedural aspects considerably impact on teaching quality, we expected moderate correlations between the traditional and the novel evaluation tool.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methodik">
      <MainHeadline>Methodik</MainHeadline><SubHeadline>Klinisches Curriculum und Evaluationsinstrumente an der Medizinischen Fakult&#228;t G&#246;ttingen</SubHeadline><Pgraph>Der dreij&#228;hrige klinische Studienabschnitt in G&#246;ttingen ist modular organisiert. Die 21 interdisziplin&#228;ren Module erstrecken sich &#252;ber zwei bis sieben Wochen. Im ersten klinischen Jahr werden &#228;rztliche Basisfertigkeiten sowie die Grundlagen der Infektiologie und Pharmakologie vermittelt, in den folgenden drei Semestern werden Gesundheitsst&#246;rungen samt ihrer Behandlung thematisiert und im letzten klinischen Semester differentialdiagnostische Aspekte betont.</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Traditionelle Evaluation: Jeweils zu Modulende findet eine Online-Evaluation statt (EvaSys<Superscript>&#174;</Superscript>, Electric Paper, L&#252;neburg). Hierbei bewerten die Studierenden organisatorische und strukturelle Aspekte der Lehre auf einer sechsstufigen Skala. Die vom Evaluationsausschuss der Fakult&#228;t entwickelten Aussagen lauten: </ListItem><OrderedList><ListItem level="2" levelPosition="1" numString="1.1.">&#8222;Die Umsetzung des interdisziplin&#228;ren Unterrichts ist in diesem Modul sehr gut gelungen.&#8220; (Interdisziplinarit&#228;t)</ListItem><ListItem level="2" levelPosition="2" numString="1.2.">&#8222;In diesem Modul wurde das selbst&#228;ndige Aufarbeiten der Lernziele gef&#246;rdert.&#8220; (Selbstlernkompetenz)</ListItem><ListItem level="2" levelPosition="3" numString="1.3.">&#8222;Bezogen auf meine berufliche Zukunft sch&#228;tze ich meinen Lernzuwachs in diesem Modul als sehr hoch ein.&#8220; (subjektiver Lernzuwachs)</ListItem><ListItem level="2" levelPosition="4" numString="1.4.">&#8222;Mit der grundlegenden Struktur des Moduls (Aufbau, Unterrichtsformen, Zeitplan) war ich sehr zufrieden.&#8220; (Modulstruktur)</ListItem><ListItem level="2" levelPosition="5" numString="1.5.">&#8222;Dieses Modul sollte so fortgef&#252;hrt werden wie bisher.&#8220; (Beibehaltung)</ListItem></OrderedList><ListItem level="1" levelPosition="2" numString="2.">Schlie&#223;lich werden die Studierenden mit dem Item &#8222;Bitte bewerten Sie das Modul mit einer Gesamtnote&#8220; um eine Globalbewertung nach dem Schulnotensystem gebeten. </ListItem><ListItem level="1" levelPosition="3" numString="3.">Um einen m&#246;glichen Zusammenhang zwischen studentischen Erwartungen vor Modulbeginn und Bewertungen nach Modulende zu untersuchen, wurde zum Zweck dieser Studie f&#252;r jedes Modul eine Online-Vorbefragung eingerichtet. Hierbei sollten die Studierenden auf einer sechsstufigen Skala angeben, inwieweit sie den folgenden drei Aussagen zustimmen:</ListItem><OrderedList><ListItem level="2" levelPosition="1" numString="3.1.">&#8222;Ich glaube, dieses Modul ist wichtig f&#252;r meine sp&#228;tere berufliche Zukunft.&#8220; (Wichtigkeit)</ListItem><ListItem level="2" levelPosition="2" numString="3.2.">&#8222;Ich freue mich schon auf dieses Modul.&#8220; (Vorfreude) </ListItem><ListItem level="2" levelPosition="3" numString="3.3.">&#8222;Ich habe von Kommilitoninnen und Kommilitonen vor allem Gutes &#252;ber dieses Modul geh&#246;rt.&#8220; (Ruf des Moduls)</ListItem></OrderedList><ListItem level="1" levelPosition="4" numString="4.">Lernzuwachs-Evaluation mittels vergleichender Selbsteinsch&#228;tzung (VSE): Das neu entwickelte Evaluations-Instrument bestimmt auf der Grundlage wiederholter studentischer Selbsteinsch&#228;tzungen den Lernzuwachs f&#252;r spezifische Lernziele. In der Online-Befragung vor Modulbeginn wurden die Studierenden gebeten, ihr Leistungsniveau bez&#252;glich spezifischer Lernziele (Beispiel: &#8222;Ich kann ein EKG interpretieren.&#8220;) auf einer sechsstufigen Skala von &#8222;trifft voll zu&#8220; bis &#8222;trifft &#252;berhaupt nicht zu&#8220; einzusch&#228;tzen. Diese Selbsteinsch&#228;tzung wurde in der unver&#228;ndert durchgef&#252;hrten Online-Evaluation zu Modulende wiederholt. Mittels Division der Mittelwert-Differenz (pr&#228;-post) f&#252;r ein spezifisches Lernziel durch den korrigierten Mittelwert der initialen Selbsteinsch&#228;tzungen aller Studierenden wurde der lernzielbezogene Lernzuwachs als Prozentwert berechnet (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>):</ListItem></OrderedList></Pgraph><Pgraph>Der Gesamt-Lernzuwachs eines Moduls wurde als Mittelwert aus den prozentualen Lernzuwachs-Werten von 15 spezifischen Lernzielen berechnet, die f&#252;r jedes Modul entsprechend den Vorgaben des G&#246;ttinger Lernzielkatalogs (<Hyperlink href="http:&#47;&#47;www.med.uni-goettingen.de&#47;de&#47;media&#47;G1-2&#95;lehre&#47;lernzielkatalog.pdf">http:&#47;&#47;www.med.uni-goettingen.de&#47;de&#47;media&#47;G1-2&#95;lehre&#47;lernzielkatalog.pdf</Hyperlink>) formuliert wurden. Zwischen dem oben aufgef&#252;hrten Evaluations-Item &#8222;Bezogen auf meine berufliche Zukunft sch&#228;tze ich meinen Lernzuwachs in diesem Modul als sehr hoch ein&#8220; (subjektiver Lernzuwachs) und dem Lernzuwachs auf dem Boden der VSE bestehen wesentliche Unterschiede: Der subjektive Lernzuwachs wird zu einem einzigen Zeitpunkt erhoben und hat globalen Charakter. Der Lernzuwachs nach VSE wird aus zwei Messpunkten errechnet und bezieht sich auf spezifische Inhalte. In einer k&#252;rzlich publizierten Reliabilit&#228;ts- und Validit&#228;tsstudie konnte gezeigt werden, dass der so berechnete Lernzuwachs sehr gut mit objektiven Leistungsparametern korreliert <TextLink reference="4"></TextLink>. </Pgraph><SubHeadline>Stichprobenbeschreibung</SubHeadline><Pgraph>Im Wintersemester 2008&#47;09 waren insgesamt 977 Studierende zur Teilnahme an den Modulen des klinischen Studienabschnitts angemeldet. Alle Studierenden wurden per E-Mail zur Teilnahme an der Evaluation eingeladen; &#252;ber ein automatisches Versandsystem erhielt jeder Studierende pro Befragung drei E-Mails mit einem direkten und nur einmal verwendbaren Link zur Online-Plattform. F&#252;r die Befragungen zu Modulbeginn wurde die Datensammlung drei Tage vor Modulbeginn gestartet und drei Tage nach Modulbeginn beendet; analoge Zeitr&#228;ume wurden f&#252;r die Befragungen zu Modulende vorgegeben. Die Teilnahme an der Evaluation war freiwillig, und alle Daten wurden anonym eingegeben. Daher ist keine n&#228;here Charakterisierung der Stichprobe nach Alter und Geschlecht m&#246;glich. </Pgraph><SubHeadline>Datenerhebung und -analyse</SubHeadline><Pgraph>In die vorliegende Arbeit gingen anonym gesammelte Evaluationsdaten ein, die im Wintersemester 2008&#47;09 erhoben wurden. Die Studierenden wurden gebeten, in der Modul-Abschlussevaluation anzugeben, ob sie auch an der Eingangsbefragung teilgenommen hatten. Um Pr&#228;-Post-Vergleiche zu erm&#246;glichen, wurden lediglich Daten von Studierenden verwendet, die nach eigenen Angaben an beiden Befragungen teilgenommen hatten. Da die Datenanalyse sich auf Mittelwerte ganzer Studierendenkohorten bezieht, war keine individuelle Kennung von Studierenden erforderlich. </Pgraph><Pgraph>Zur Beantwortung der ersten Forschungsfrage wurden Ranglisten der 21 Module erstellt, die sich entweder auf den Mittelwert der Globalbewertung oder den &#252;ber 15 Lernziele gemittelten Lernzuwachs (VSE) bezogen. Zur Bearbeitung der zweiten Fragestellung wurden die Korrelationen zwischen den Mittelwerten der traditionellen Evaluationsparameter und dem mittleren Lernzuwachs (VSE) in den Modulen untersucht. Zur statistischen Datenanalyse wurde SPSS<Superscript>&#174;</Superscript> 14.0 (Illinois, USA) verwendet. Alle Daten zeigten sich im Kolmogorov-Smirnov-Anpassungstest normalverteilt. Folglich sind Korrelationen als Pearson&#8217;s r angegeben. Der quadrierte Korrelationskoeffizient gibt dabei das Bestimmtheitsma&#223; der Korrelation und somit auch die Varianzaufkl&#228;rung an.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods">
      <MainHeadline>Methods</MainHeadline><SubHeadline>Clinical curriculum and evaluation tools at G&#246;ttingen Medical School</SubHeadline><Pgraph>The three-year clinical curriculum at our institution adopts a modular structure. There are 21 modules lasting two to seven weeks. The first clinical year covers basic practical skills, infectiology and pharmacotherapy, followed by 18 months of systematic teaching on the diagnosis and treatment of specific diseases. Aspects regarding differential diagnosis are focused on in the last 6 months.</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Traditional evaluation tool: Students complete online evaluation forms (EvaSys<Superscript>&#174;</Superscript>, Electric Paper, L&#252;neburg, Germany) at the end of each module. Ratings on organisational and structural aspects of teaching are obtained on six-point scales. The following statements are used for these ratings:</ListItem><OrderedList><ListItem level="2" levelPosition="1" numString="1.1.">&#8220;The implementation of interdisciplinary teaching was well done in this module.&#8221; (Interdisciplinarity)</ListItem><ListItem level="2" levelPosition="2" numString="1.2.">&#8220;During this module, self-directed learning was promoted.&#8221; (Self-directed learning)</ListItem><ListItem level="2" levelPosition="3" numString="1.3.">&#8220;Regarding my future professional life, I perceive my performance gain in this module as high.&#8221; (Subjective performance gain)</ListItem><ListItem level="2" levelPosition="4" numString="1.4.">&#8220;I was very satisfied with the basic structure of this module (design, instructional formats, time-tables).&#8221; (Structure)</ListItem><ListItem level="2" levelPosition="5" numString="1.5.">&#8220;This module should be continued unchanged.&#8221; (Continuation)</ListItem></OrderedList><ListItem level="1" levelPosition="2" numString="2.">The final item of this part of the questionnaire read &#8220;Please provide an overall school mark rating of the module.&#8221;</ListItem><ListItem level="1" levelPosition="3" numString="3.">In order to assess correlations between student expectations before a module and their ratings at the end of a module, an additional online survey at the beginning of each module was set up specifically for this study. In this survey, students were asked to rate the following statements on a six-point scale:</ListItem><OrderedList><ListItem level="2" levelPosition="1" numString="3.1.">&#8220;I believe that this module is important for my future professional life.&#8221; (Importance)</ListItem><ListItem level="2" levelPosition="2" numString="3.2.">&#8220;I am looking forward to this module.&#8221; (Anticipation)</ListItem><ListItem level="2" levelPosition="3" numString="3.3.">&#8220;The module has a good reputation with my more advanced fellow students.&#8221; (Reputation)</ListItem></OrderedList><ListItem level="1" levelPosition="4" numString="4.">Performance gain evaluation using comparative self-assessments (CSA): The novel tool used in this study calculates performance gain for specific learning objectives on the basis of repeated student self-assessments. At the beginning of each module, students are asked in an online survey to self-rate their performance levels regarding specific learning objectives (e.g. &#8220;I can interpret an electrocardiogram.&#8221;) on a six-point scale anchored by &#8220;fully agree&#8221; (1) and &#8220;completely disagree&#8221; (6). Self-ratings were again obtained at the end of each module. The percent CSA gain for a specific learning objective was calculated by dividing the difference of mean values (pre-post) by the corrected mean of initial self-ratings across student cohorts according to the following formula (see figure 1 <ImgLink imgNo="1" imgType="figure"/>):</ListItem></OrderedList></Pgraph><Pgraph>Aggregated CSA gain of a module was calculated as the mean of CSA gains obtained for 15 specific learning objectives which were derived from the G&#246;ttingen Catalogue of Specific Learning Objectives (<Hyperlink href="http:&#47;&#47;www.med.uni-goettingen.de&#47;de&#47;media&#47;G1-2&#95;lehre&#47;lernzielkatalog.pdf">http:&#47;&#47;www.med.uni-goettingen.de&#47;de&#47;media&#47;G1-2&#95;lehre&#47;lernzielkatalog.pdf</Hyperlink>). The major difference between the aforementioned evaluation item &#8220;Regarding my future professional life, I perceive my performance gain in this module as high.&#8221; and CSA gain was that subjective performance gain was obtained at one time-point only and was global in nature while CSA gain was calculated from ratings obtained at different time-points and related to specific learning objectives. A recently published study demonstrates a good correlation between CSA gain and an increase in objective performance measures <TextLink reference="4"></TextLink>. </Pgraph><SubHeadline>Description of the study sample</SubHeadline><Pgraph>In winter 2008&#47;09, a total of 977 students were enrolled in clinical modules at our institution. All students were invited to participate in online evaluations via e-mail; each student automatically received three e-mails per survey containing a link to the online evaluation platform. Pre-surveys were opened three days before the beginning of a module and closed three days into the module. The same time-frame was used for post-surveys. Participation was voluntary, and all data were entered anonymously. Thus, further characterisation of the sample with regard to age and sex was not possible.</Pgraph><SubHeadline>Data acquisition and analysis</SubHeadline><Pgraph>Anonymous evaluation data collected during winter term 2008&#47;09 were included in this study. During completion of the post-survey, students were asked to indicate whether they had also taken part in the pre-survey. Pre-post comparisons were only performed on data obtained from students who indicated to have completed both the pre- and the post-survey. Since data were aggregated across student cohorts, no individual labelling of students was necessary.</Pgraph><Pgraph>In order to address the first research question, the 21 modules were ranked according to mean global ratings or mean CSA gain values (aggregated from 15 specific learning objective gains). The second research question was addressed by calculating correlations between mean values of traditional evaluation items and aggregated CSA gain per module.</Pgraph><Pgraph>Analyses were run with SPSS<Superscript>&#174;</Superscript> 14.0 (Illinois, USA). A Kolmogorov-Smirnov Test indicated that all data were normally distributed. Thus, correlations are reported as Pearson&#8217;s r. Squared r values indicate the proportion of variance explained.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><SubHeadline>R&#252;cklaufquoten</SubHeadline><Pgraph>Von den 977 zu den klinischen Modulen angemeldeten Studierenden gaben 573 Studierende insgesamt 51.915 Einzelratings ab. Die R&#252;cklaufquoten innerhalb der verschiedenen Module lagen zwischen 36,7 und 75,4&#37;. </Pgraph><SubHeadline>Modulrankings im Vergleich</SubHeadline><Pgraph>Tabelle 1 <ImgLink imgNo="1" imgType="table"/> stellt die mittels der traditionellen Evaluation erhobenen Globalbewertungen den Lernzuwachsdaten der verschiedenen Module gegen&#252;ber. Die Module wurden gem&#228;&#223; dieser Ergebnisse in zwei Rangreihen gebracht (siehe die letzten beiden Spalten der Tabelle). Teilweise f&#252;hrten die beiden Methoden zu deutlich divergierenden Rangpl&#228;tzen. Bei sechs der 21 Module wiesen die Ergebnisse Unterschiede von mindestens sechs Rangpl&#228;tzen auf. Besonders fiel das Modul 19 auf, das mit 1,56 die beste Note erreichte, nach der Lernzuwachs-Evaluation mit durchschnittlich 55,6&#37; jedoch den 17. Platz belegte. Umgekehrt belegte das Modul 7 (Thema &#8222;Evidenzbasierte Medizin&#8220;) im Ranking nach der Globalbewertung mit einer Gesamtnote von 3,67 den letzten Platz, obwohl in diesem Modul ein mittlerer Lernzuwachs von 64,3&#37; (Platz 9) erzielt wurde. In diesem Zusammenhang fiel auf, dass die Studierenden das Modul bereits in der Motivationsabfrage negativ beurteilt hatten (Wichtigkeit: 3,64; Vorfreude: 4,20; Ruf des Moduls: 4,59).</Pgraph><SubHeadline>Korrelationen zwischen den verschiedenen Evaluationsparametern </SubHeadline><Pgraph>Die Ergebnisse der Korrelationsanalysen sind in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> dargestellt. Studentische Erwartungen <Mark1><Mark2>vor</Mark2></Mark1> Modulbeginn und die allgemeine Bewertung organisatorischer und struktureller Aspekte der Lehre <Mark1><Mark2>nach</Mark2></Mark1> Teilnahme am Modul korrelierten stark positiv. Auch zwischen der globalen Modulbewertung und der Zustimmung zur Aussage &#8222;Bezogen auf meine berufliche Zukunft sch&#228;tze ich meinen Lernzuwachs in diesem Modul als sehr hoch ein&#8220; fand sich eine starke positive Korrelation (r&#61;0,94; p&#60;0,001). Demgegen&#252;ber wiesen die Daten zum Lernerfolg nach VSE keine signifikante Korrelation mit den Erwartungen vor Modulbeginn auf. Zwischen dem Lernerfolg und den Ergebnissen der traditionellen Evaluation fand sich nur f&#252;r zwei Aspekte eine schwache Korrelation (Varianzaufkl&#228;rung maximal 22&#37;). Der Lernerfolg korrelierte schwach mit der subjektiven Einsch&#228;tzung, viel gelernt zu haben (r&#61;0,44; p&#61;0,044; Varianzaufkl&#228;rung 19&#37;) und nicht-signifikant mit der allgemeinen Modulbewertung (r&#61;-0,42; p&#61;0,061; Varianzaufkl&#228;rung 18&#37;; siehe Abbildung 2 <ImgLink imgNo="2" imgType="figure"/>).</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><SubHeadline>Response rates</SubHeadline><Pgraph>Of all 977 students enrolled in clinical modules, 573 provided a total of 51,915 ratings. Response rates in specific modules ranged from 36.7&#37; to 75.4&#37;.</Pgraph><SubHeadline>Comparison of module rankings</SubHeadline><Pgraph>Table 1 <ImgLink imgNo="1" imgType="table"/> compares global student ratings and CSA gain values at the level of individual modules. Modules were ranked using both indicators (see the last two columns of the table). In some instances, ranks differed substantially depending on the method used. A difference of at least 6 ranks between the two methods was found for six out of 21 modules. For example, module no. 19 received the best overall rating (1.56) despite taking position 17 in the CSA gain ranking (55.6&#37;). Conversely, module no. 7 (&#8220;Evidence-based medicine&#8221;) received a mean overall rating of 3.67 and thus came last in this ranking while mean CSA gain was 64.3&#37; (Rank 9). Notably, students had already provided negative ratings for this module in the pre-survey (Importance: 3.64; anticipation: 4.20; Reputation: 4.59).</Pgraph><SubHeadline>Correlations between evaluation parameters </SubHeadline><Pgraph>Results of correlation analyses are presented in Table 2 <ImgLink imgNo="2" imgType="table"/>. Student expectations <Mark1><Mark2>before</Mark2></Mark1> a module and ratings of organisational and structural aspects obtained <Mark1><Mark2>after</Mark2></Mark1> a module showed a strong positive correlation. There was also a strong correlation between overall ratings and approval of the statement &#8220;Regarding my future professional life, I perceive my performance gain in this module as high.&#8221; (r&#61;0.94; p&#60;0.001). In contrast, there was no significant correlation between CSA gain and student expectations in the pre-survey. Weak correlations were observed between CSA gain and two variables included in the traditional evaluation form (maximum proportion of variance explained: 22&#37;). CSA gain was weakly correlated with the subjective perception of having learned a lot (r&#61;-0.44; p&#61;0.044; proportion of variance explained 19&#37;) and non-significantly with overall module ratings (r&#61;-0.42; p&#61;0.061; proportion of variance explained 18&#37;; see Figure 2 <ImgLink imgNo="2" imgType="figure"/>).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><SubHeadline>Wichtigste Ergebnisse</SubHeadline><Pgraph>In der vorliegenden Studie korrelierten globale Bewertungen von Lehrveranstaltungen signifikant mit der studentischen Erwartung vor Teilnahme an einen Modul sowie den retrospektiven Bewertungen von curricularer Struktur und subjektivem Lernzuwachs. Dagegen bestand keine Korrelation zwischen dem nach VSE berechneten Lernzuwachs und den studentischen Erwartungen vor Modulbeginn; zwischen dem berechneten Lernzuwachs und dem subjektiv wahrgenommenen Lernzuwachs fand sich eine schwache Korrelation. Entsprechend unterschied sich die Modul-Rangfolge &#8211; je nachdem, ob eine Globalbewertung oder der selbst eingesch&#228;tzte Lernzuwachs Ma&#223;stab war.</Pgraph><SubHeadline>St&#228;rken und Schw&#228;chen der Studie</SubHeadline><Pgraph>Das hier vorgestellte, neue Evaluationsinstrument erm&#246;glicht bei geringem Implementierungs-Aufwand erstmals auf der Ebene spezifischer Lernziele eine Beurteilung des Lernerfolgs durch vergleichende studentische Selbsteinsch&#228;tzungen. Die hier vorgestellten Daten wurden im Rahmen des normalen Lehrbetriebs erhoben und st&#252;tzen sich auf eine gro&#223;e Zahl von Einzelratings von &#252;ber 500 Studierenden. </Pgraph><Pgraph>Die Validit&#228;t <Mark2>punktueller</Mark2> Selbsteinsch&#228;tzungen wurde in der Vergangenheit h&#228;ufig kritisiert <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, da verschiedene Konstrukt-irrelevante Faktoren die Genauigkeit von Selbsteinsch&#228;tzungen beeinflussen k&#246;nnen. Allerdings konnten Colthart et al. <TextLink reference="7"></TextLink> zeigen, dass die Selbsteinsch&#228;tzungsf&#228;higkeit durch explizite Bewertungskriterien, Ankersetzung und Feedback verbessert werden kann. Somit stellt die Verwendung spezifischer Lernziele <TextLink reference="8"></TextLink> eine entscheidende Voraussetzung f&#252;r die Funktionalit&#228;t des hier vorgestellten Instrumentes dar. Der Einfluss individueller Charakteristika auf das Ergebnis der Lernerfolgs-Evaluation nach VSE wird durch die wiederholte Erhebung von Selbsteinsch&#228;tzungen in der gleichen Studierendengruppe reduziert.</Pgraph><SubHeadline>Vergleich mit der Literatur und Bedeutung der Ergebnisse</SubHeadline><Pgraph>Lehrqualit&#228;t ist ein multidimensionales Konstrukt, in das unterschiedliche prozedurale, strukturelle, inhaltliche und ergebnisbezogene Parameter eingehen <TextLink reference="9"></TextLink>. Studentische Evaluationen leisten einen Beitrag zur Bewertung der Lehrqualit&#228;t an einer Fakult&#228;t. Allerdings unterliegen diese subjektiven Einsch&#228;tzungen verschiedenen Einfl&#252;ssen; daher ist nicht immer offensichtlich, welches Konstrukt im Detail in einer studentischen Evaluation abgebildet wird. Dies gilt insbesondere f&#252;r globale Bewertungen einzelner Veranstaltungen, die zumeist mit Hilfe von Skalen nach dem Schulnotenprinzip erhoben werden. So zeigen die Daten der vorliegenden Studie, dass globale Bewertungen von Lehrveranstaltungen signifikant mit der studentischen Erwartung vor Teilnahme an einem Modul sowie den retrospektiven Bewertungen von curricularer Struktur und subjektivem Lernzuwachs (siehe Tabelle 2 <ImgLink imgNo="2" imgType="table"/>) korrelieren. Hier bieten sich zwei &#8211; sich nicht unbedingt widersprechende &#8211; Erkl&#228;rungen an: Entweder den studentischen Bewertungen liegt tats&#228;chlich ein Konstrukt von &#8222;guter Lehre&#8220; zugrunde im Sinne eines gut strukturierten, interdisziplin&#228;ren Unterrichts, in dem gleichzeitig die Selbstlernkompetenz gef&#246;rdert wird und der subjektive Lernzuwachs hoch ist.</Pgraph><Pgraph>Alternativ k&#246;nnte vermutet werden, dass mit den unterschiedlichen Evaluationsparametern ein eigenes, homogenes Konstrukt abgebildet wird, innerhalb dessen eine Differenzierung der Einzelaspekte nicht mehr m&#246;glich ist. Im Extremfall wird lediglich die studentische Zufriedenheit mit der Lehre gemessen, die &#8211; wie an den hier beobachteten Korrelationen ersichtlich ist &#8211; stark mit den Erwartungen vor Modulbeginn korreliert. In der Tat best&#228;tigen auch andere Untersuchungen, dass nicht nur strukturelle und prozedurale Aspekte <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>, <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, sondern auch das Auftreten der Dozenten <TextLink reference="15"></TextLink>, ihr Umgang mit den Studierenden <TextLink reference="16"></TextLink> und der Ruf eines Dozenten bzw. einer Veranstaltung <TextLink reference="17"></TextLink> sich auf studentische Globalbewertungen auswirken. Wenngleich ein professionelles Verhalten von Dozenten dem Konstrukt &#8222;gute Lehre&#8220; hinzugerechnet werden kann, bleibt somit bei der Interpretation von studentischen Globalbewertungen meist unklar, welchen Beitrag dieser Aspekt zur Gesamtbewertung geleistet hat.</Pgraph><Pgraph>Neben strukturellen, prozeduralen und personenbezogenen Parametern sollte unbedingt auch der studentische Lernerfolg in die Bewertung von Lehrveranstaltungen einflie&#223;en <TextLink reference="9"></TextLink>. Spontan wird man daran denken, hierf&#252;r die Ergebnisse fakult&#228;tsinterner Klausuren oder der Staatsexamina zur Beurteilung der Ergebnisqualit&#228;t der Lehre heranzuziehen. Allerdings wurde erst k&#252;rzlich darauf hingewiesen, dass viele Pr&#252;fungen an deutschen medizinischen Fakult&#228;ten den internationalen Qualit&#228;tsstandards nicht gen&#252;gen <TextLink reference="18"></TextLink> und somit keinen Anspruch auf eine zufriedenstellende Validit&#228;t erheben k&#246;nnen. So repr&#228;sentieren Multiple Choice-Fragen der medizinischen Staatsexamina lediglich eine Dimension der &#228;rztlichen Ausbildung (Wissen) und lassen keine R&#252;ckschl&#252;sse auf die Qualit&#228;t der praktischen Ausbildung zu. Zudem ist es insbesondere in reformierten Curricula kaum m&#246;glich, die aggregierten Examensergebnisse der Leistung einzelner Lehrveranstaltungen oder F&#228;cher zuzuordnen, so dass eine intrafakult&#228;re LOM-Verteilung auf dieser Grundlage verfehlt erscheint.</Pgraph><SubHeadline>Praktische Implikationen</SubHeadline><Pgraph>Bei der Interpretation von Evaluationsdaten ist generell darauf zu achten, dass das der Evaluation zugrunde liegende Konstrukt von &#8222;guter Lehre&#8220; klar charakterisiert ist und dass die genutzten Erhebungsinstrumente dieses Konstrukt valide abbilden. W&#252;nschenswert sind daher Evaluationsinstrumente, die valide spezifische Aspekte guter Lehre erfassen und eine m&#246;glichst geringe Kreuz-Korrelation zwischen unterschiedlichen Items aufweisen. Auf der Grundlage einer fehlenden bzw. geringen Korrelation zwischen Globalbewertungen und dem nach VSE bestimmten Lernzuwachs ist anzunehmen, dass das hier vorgestellte neue Evaluationsinstrument zus&#228;tzliche Informationen &#252;ber den Lernerfolg liefert, die von traditionellen Evaluationsmethoden nicht erfasst werden. Ein Instrument mit diesen Eigenschaften empfiehlt sich f&#252;r eine valide Unterrichts-Evaluation.</Pgraph><SubHeadline>Zuk&#252;nftiger Forschungsbedarf</SubHeadline><Pgraph>Die studentische Definition des &#8222;Lernerfolgs&#8220; wurde in der vorliegenden Arbeit nicht untersucht und sollte &#8211; insbesondere in Abgrenzung zur Definition durch die Lehrenden &#8211; Gegenstand k&#252;nftiger Forschungsprojekte sein. </Pgraph><Pgraph>F&#252;r die zuk&#252;nftige Verwendung unseres Verfahrens ist zu kl&#228;ren, ob eine Stichprobe von 15 Lernzielen pro Modul ausreichend ist, um das Spektrum einer Veranstaltung hinreichend abzubilden und somit den potentiellen Lernfortschritt verl&#228;sslich abzubilden. Zudem sollte ein eventueller Einfluss des Erhebungsinstruments <TextLink reference="19"></TextLink> und der R&#252;cklaufquote auf die Ergebnisse des neuen Evaluations-Instrumentes n&#228;her untersucht werden. </Pgraph><Pgraph>Aus der Notwendigkeit, an beiden Erhebungszeitpunkten Einsch&#228;tzungen von den gleichen Individuen zu erhalten, ergeben sich mitunter datenschutzrechtliche Probleme, da die Evaluation medizinischer Lehrveranstaltungen anonym erfolgen sollte. Um dieses Problem zu umgehen, k&#246;nnte anstatt einer Befragung zu zwei verschiedenen Zeitpunkten auch eine am Modulende liegende retrospektive Erhebung des subjektiven Leistungsstandes vor Modulbeginn erwogen werden <TextLink reference="20"></TextLink>. Schlie&#223;lich ist zu pr&#252;fen, inwieweit das neue Instrument auf andere Fakult&#228;ten und Curricula &#252;bertragbar ist.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><SubHeadline>Principal findings</SubHeadline><Pgraph>In this study, we observed significant correlations between overall module ratings and student expectations before a module as well as with retrospective ratings of curricular structure and subjective performance gain. Conversely, there was no correlation between CSA gain and student expectations and only a weak correlation between CSA gain and perceived subjective performance gain. Accordingly, module rankings were different depending on them being based on overall ratings or CSA gain values.</Pgraph><SubHeadline>Strengths and limitations </SubHeadline><Pgraph>The new evaluation tool presented here facilitates a critical appraisal of performance gain by using comparative student self-assessments. It is easy to implement and addresses specific learning objectives. The data used for this study were obtained as part of our evaluation routine and comprised a large number of single ratings provided by over 500 students.</Pgraph><Pgraph>The validity of singular self-assessments has repeatedly been criticised in the past <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink> as their accuracy can be influenced by factors which are irrelevant to the construct examined. However, Colthart et al. <TextLink reference="7"></TextLink> demonstrated that the ability to self-assess can be improved by using well-defined criteria, anchoring of scales and feedback. Accordingly, using specific learning objectives <TextLink reference="8"></TextLink> for self-assessments is a prerequisite for the new tool to be functional. The potential impact of individual characteristics on CSA gain values is reduced by repeatedly collecting self-assessments from the same student group.</Pgraph><SubHeadline>Relation to published research and significance of findings</SubHeadline><Pgraph>Teaching quality is a multi-dimensional construct including several parameters related to process, structure, content and outcome of teaching <TextLink reference="9"></TextLink>. Evaluation data provided by students contribute to the critical appraisal of teaching quality within medical schools. However, subjective ratings are influenced by various variables. As a consequence, details of the construct underlying student evaluation data may not be readily discernible. This particularly pertains to overall course ratings which are usually captured using a simple marking system. This study demonstrates that overall module ratings are strongly correlated with student expectations before taking a module as well as retrospective ratings of curricular structure and subjective performance gain (see Table 2 <ImgLink imgNo="2" imgType="table"/>). There are two possible explanations for this finding which may not be mutually exclusive: Student ratings may either feed into a construct of &#8216;good teaching&#8217; which includes well-structured, interdisciplinary teaching that fosters self-directed learning and produces a considerable performance gain. Alternatively, it may be suggested that all seemingly different parameters used in traditional evaluation forms feed into the same, homogeneous construct within which specific aspects cannot be differentiated. In an extreme case, this would mean measuring mere student satisfaction which &#8211; as indicated by the correlations seen in this study &#8211; is strongly associated with student expectations before a module.</Pgraph><Pgraph>In fact, previous research indicates that overall ratings are not only influenced by structural and procedural aspects <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>, <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink> but also by the behaviour of faculty <TextLink reference="15"></TextLink>, their rapport with students <TextLink reference="16"></TextLink> and a lecturer&#8217;s or a course&#8217;s reputation <TextLink reference="17"></TextLink>. While professional bearing of faculty might be attributed to a construct of &#8216;good teaching&#8217;, interpretation of student overall ratings is complicated by the extent of such contributions to the composite mark being largely unknown.</Pgraph><Pgraph>In addition to addressing structural and procedural parameters, a critical appraisal of teaching should take student learning outcome into consideration <TextLink reference="9"></TextLink>. At first glance, student achievements in end-of-course assessments or high-stakes examinations might appear helpful in this regard. However, it has recently been reported that the assessments performed at many German medical schools do not live up to international quality standards <TextLink reference="18"></TextLink> and thus cannot be regarded as being sufficiently valid. In addition, multiple choice questions address but one dimension of physician training (knowledge) and do not allow any conclusions to be drawn on the quality of practical training. Attributing exam results to teaching quality in specific courses or even specialties can be particularly difficult in reformed curricula. Thus, internal fund redistribution based on examination results does not seem advisable.</Pgraph><SubHeadline>Practical implications</SubHeadline><Pgraph>A clear definition of the construct of &#8216;good teaching&#8217; and proof of validity for the tools used to assess are prerequisites for the interpretation of evaluation data. Accordingly, evaluation tools capturing specific aspects of good teaching and avoiding cross-correlations between different items are desirable. As correlations between overall ratings and CSA gain were either absent or weak in this study, the novel evaluation tool described here is likely to produce additional information that would have been missed by traditional evaluation tools. It might thus be used for a valid appraisal of teaching quality.</Pgraph><SubHeadline>Research agenda</SubHeadline><Pgraph>We did not assess students&#8217; definitions of performance gain in this study; this should be done in future studies, including research into teachers&#8217; definitions of learning outcome which may be different from students&#8217; views.</Pgraph><Pgraph>Future use of the novel evaluation tool needs to be informed by research regarding the number of learning objectives that need to be included per module in order to cover the whole range of aspects addressed in a module and, thus, produce reliable results. In addition, potential biases arising from the online data acquisition tool <TextLink reference="19"></TextLink> and differing response rates across modules and their influence on CSA gain data needs to be studied in more detail.</Pgraph><Pgraph>The novel tool necessitates data collection from identical student groups at different time-points, thus potentially raising concerns regarding data protection issues as students should be able to complete evaluation forms anonymously. In order to solve this problem, the pre-&#47;post-design could be changed to a singular data collection period at the end of each module during which students would provide retrospective ratings of their performance levels at the beginning of the module <TextLink reference="20"></TextLink>. Finally, future research needs to show to what extent the novel tool can be transferred to other medical schools and curricula.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Schlussfolgerung">
      <MainHeadline>Schlussfolgerung</MainHeadline><Pgraph>Studentische Globalbewertungen von Veranstaltungen spiegeln nicht alle Aspekte der Lehrqualit&#228;t wider und sind daher nur bedingt geeignet f&#252;r die Zuteilung von LOM-Mitteln in der Lehre. Dagegen scheint das hier vorgestellte Instrument mit dem Lernzuwachs eine wichtige Dimension der Lehrqualit&#228;t valide und unabh&#228;ngig von g&#228;ngigen Globalbewertungen abzubilden. Die Ergebnisse der Lernzuwachs-Evaluation nach VSE k&#246;nnten daher zuk&#252;nftig ein wesentlicher Bestandteil in Algorithmen zur Allokation von LOM-Mitteln sein. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusions">
      <MainHeadline>Conclusions</MainHeadline><Pgraph>Overall course ratings provided by students do not address all aspects of teaching quality and are of limited use to guide fund redistribution within medical schools. In contrast, by providing an estimate of actual performance gain, the tool described here appears to cover an important dimension of teaching quality. It was found to be valid and independent of traditional global ratings. Therefore, CSA gain might become an integral part of algorithms to inform performance-guided resource allocation within medical schools.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph>Die Autoren Raupach und Schiekirka teilen sich die Erstautorenschaft. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Note">
      <MainHeadline>Note</MainHeadline><Pgraph>The authors Raupach and Schiekirka have equally contributed to this manuscript.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Wissenschaftsrat</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2008</RefYear>
        <RefBookTitle>Empfehlungen zur Qualit&#228;tsverbesserung von Lehre und Studium</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Wissenschaftsrat. Empfehlungen zur Qualit&#228;tsverbesserung von Lehre und Studium. Berlin: Wissenschaftsrat; 2008.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Herzig S</RefAuthor>
        <RefAuthor>Marschall B</RefAuthor>
        <RefAuthor>Nast-Kolb D</RefAuthor>
        <RefAuthor>Soboll S</RefAuthor>
        <RefAuthor>Rump LC</RefAuthor>
        <RefAuthor>Hilgers RD</RefAuthor>
        <RefTitle>Positionspapier der nordrhein-westf&#228;lischen Studiendekane zur hochschulvergleichenden leistungsorientierten Mittelvergabe f&#252;r die Lehre</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2007-24&#47;zma000403</RefPage>
        <RefTotal>Herzig S, Marschall B, Nast-Kolb D, Soboll S, Rump LC, Hilgers RD. Positionspapier der nordrhein-westf&#228;lischen Studiendekane zur hochschulvergleichenden leistungsorientierten Mittelvergabe f&#252;r die Lehre. GMS Z Med Ausbild. 2007;24(2):Doc109. Zug&#228;nglich unter: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2007-24&#47;zma000403.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2007-24&#47;zma000403.shtml</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>M&#252;ller-Hilke B</RefAuthor>
        <RefTitle>&#34;Ruhm und Ehre&#34; oder LOM f&#252;r Lehre&#63; - eine qualitative Analyse von Anreizverfahren f&#252;r gute Lehre an Medizinischen Fakult&#228;ten in Deutschland</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc43</RefPage>
        <RefTotal>M&#252;ller-Hilke B. &#34;Ruhm und Ehre&#34; oder LOM f&#252;r Lehre&#63; - eine qualitative Analyse von Anreizverfahren f&#252;r gute Lehre an Medizinischen Fakult&#228;ten in Deutschland. GMS Z Med Ausbild. 2010;27(3):Doc43. DOI: 10.3205&#47;zma000680</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000680</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>M&#252;nscher C</RefAuthor>
        <RefAuthor>Bei&#223;barth T</RefAuthor>
        <RefAuthor>Burckhardt G</RefAuthor>
        <RefAuthor>Pukrop T</RefAuthor>
        <RefTitle>Towards outcome-based programme evaluation: Using student comparative self-assessments to determine teaching effectiveness</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>e446-453</RefPage>
        <RefTotal>Raupach T, M&#252;nscher C, Bei&#223;barth T, Burckhardt G, Pukrop T. Towards outcome-based programme evaluation: Using student comparative self-assessments to determine teaching effectiveness. Med Teach. 2011;33(8):e446-453. DOI: 10.3109&#47;0142159X.2011.586751</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;0142159X.2011.586751</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Falchikov N</RefAuthor>
        <RefAuthor>Boud D</RefAuthor>
        <RefTitle>Student Self-Assessment in Higher Education: A Meta-Analysis</RefTitle>
        <RefYear>1989</RefYear>
        <RefJournal>Rev Educ Res</RefJournal>
        <RefPage>395-430</RefPage>
        <RefTotal>Falchikov N, Boud D. Student Self-Assessment in Higher Education: A Meta-Analysis. Rev Educ Res. 1989;59(4):395-430.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Davis DA</RefAuthor>
        <RefAuthor>Mazmanian PE</RefAuthor>
        <RefAuthor>Fordis M</RefAuthor>
        <RefAuthor>Van Harrison R</RefAuthor>
        <RefAuthor>Thorpe KE</RefAuthor>
        <RefAuthor>Perrier L</RefAuthor>
        <RefTitle>Accuracy of physician self-assessment compared with observed measures of competence: a systematic review</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Jama</RefJournal>
        <RefPage>1094-1102</RefPage>
        <RefTotal>Davis DA, Mazmanian PE, Fordis M, Van Harrison R, Thorpe KE, Perrier L. Accuracy of physician self-assessment compared with observed measures of competence: a systematic review. Jama. 2006;296(9):1094-1102. DOI: 10.1001&#47;jama.296.9.1094</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1001&#47;jama.296.9.1094</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Colthart I</RefAuthor>
        <RefAuthor>Bagnall G</RefAuthor>
        <RefAuthor>Evans A</RefAuthor>
        <RefAuthor>Allbutt H</RefAuthor>
        <RefAuthor>Haig A</RefAuthor>
        <RefAuthor>Illing J</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle>The effectiveness of self-assessment on the identification of learner needs, learner activity, and impact on clinical practice: BEME Guide no. 10</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>124-145</RefPage>
        <RefTotal>Colthart I, Bagnall G, Evans A, Allbutt H, Haig A, Illing J, et al. The effectiveness of self-assessment on the identification of learner needs, learner activity, and impact on clinical practice: BEME Guide no. 10. Med Teach. 2008;30(2):124-145. DOI: 10.1080&#47;01421590701881699</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421590701881699</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Harden RM</RefAuthor>
        <RefTitle>Learning outcomes as a tool to assess progression</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>678-682</RefPage>
        <RefTotal>Harden RM. Learning outcomes as a tool to assess progression. Med Teach. 2007;29(7):678-682. DOI: 10.1080&#47;01421590701729955</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421590701729955</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Rindermann H</RefAuthor>
        <RefTitle>Lehrevaluation an Hochschulen: Schlussfolgerungen aus Forschung und Anwendung f&#252;r Hochschulunterricht und seine Evaluation</RefTitle>
        <RefYear>2003(2)</RefYear>
        <RefJournal>Z Evaluation</RefJournal>
        <RefPage>233-256</RefPage>
        <RefTotal>Rindermann H. Lehrevaluation an Hochschulen: Schlussfolgerungen aus Forschung und Anwendung f&#252;r Hochschulunterricht und seine Evaluation. Z Evaluation. 2003(2):233-256.</RefTotal>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Beckman TJ</RefAuthor>
        <RefAuthor>Ghosh AK</RefAuthor>
        <RefAuthor>Cook DA</RefAuthor>
        <RefAuthor>Erwin PJ</RefAuthor>
        <RefAuthor>Mandrekar JN</RefAuthor>
        <RefTitle>How reliable are assessments of clinical teaching&#63; A review of the published instruments</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>J Gen Intern Med</RefJournal>
        <RefPage>971-977</RefPage>
        <RefTotal>Beckman TJ, Ghosh AK, Cook DA, Erwin PJ, Mandrekar JN. How reliable are assessments of clinical teaching&#63; A review of the published instruments. J Gen Intern Med. 2004;19(9):971-977. DOI: 10.1111&#47;j.1525-1497.2004.40066.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1525-1497.2004.40066.x</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Kogan JR</RefAuthor>
        <RefAuthor>Shea JA</RefAuthor>
        <RefTitle>Course evaluation in medical education</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Teach Teach Educ</RefJournal>
        <RefPage>251-264</RefPage>
        <RefTotal>Kogan JR, Shea JA. Course evaluation in medical education. Teach Teach Educ. 2007;23(3):251-264. DOI: 10.1016&#47;j.tate.2006.12.020</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1016&#47;j.tate.2006.12.020</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Marsh HW</RefAuthor>
        <RefTitle>The Influence of Student, Course, and Instructor Characteristics in Evaluations of University Teaching</RefTitle>
        <RefYear>1980</RefYear>
        <RefJournal>Am Educ Res J</RefJournal>
        <RefPage>219-237</RefPage>
        <RefTotal>Marsh HW. The Influence of Student, Course, and Instructor Characteristics in Evaluations of University Teaching. Am Educ Res J. 1980;17(2):219-237.</RefTotal>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Marsh HW</RefAuthor>
        <RefTitle>Multidimensional ratings of teaching effectiveness by students from different academic settings and their relation to student&#47;course&#47;instructor characteristics</RefTitle>
        <RefYear>1983</RefYear>
        <RefJournal>J Educ Psychol</RefJournal>
        <RefPage>150-166</RefPage>
        <RefTotal>Marsh HW. Multidimensional ratings of teaching effectiveness by students from different academic settings and their relation to student&#47;course&#47;instructor characteristics. J Educ Psychol. 1983;75:150-166. DOI: 10.1037&#47;0022-0663.75.1.150</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1037&#47;0022-0663.75.1.150</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>McKeachie W</RefAuthor>
        <RefTitle>Student ratings; the validity of use</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>Am Psychol</RefJournal>
        <RefPage>1218-1225</RefPage>
        <RefTotal>McKeachie W. Student ratings; the validity of use. Am Psychol. 1997;52(11):1218-1225. DOI: 10.1037&#47;0003-066X.52.11.1218</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1037&#47;0003-066X.52.11.1218</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Marsh HW</RefAuthor>
        <RefAuthor>Ware JE</RefAuthor>
        <RefTitle>Effects of expressiveness, content coverage, and incentive on multidimensional student rating scales: New interpretations of the Dr. Fox effect</RefTitle>
        <RefYear>1982</RefYear>
        <RefJournal>J Educ Psychol</RefJournal>
        <RefPage>126-134</RefPage>
        <RefTotal>Marsh HW, Ware JE. Effects of expressiveness, content coverage, and incentive on multidimensional student rating scales: New interpretations of the Dr. Fox effect. J Educ Psychol. 1982;74(1):126-134. DOI: 10.1037&#47;0022-0663.74.1.126</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1037&#47;0022-0663.74.1.126</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Jackson DL</RefAuthor>
        <RefAuthor>Teal CR</RefAuthor>
        <RefAuthor>Raines SJ</RefAuthor>
        <RefAuthor>Nansel TR</RefAuthor>
        <RefAuthor>Force RC</RefAuthor>
        <RefAuthor>Burdsal CA</RefAuthor>
        <RefTitle>The dimensions of students&#39; perceptions of teaching effectiveness</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Educ Psychol Meas</RefJournal>
        <RefPage>580-596</RefPage>
        <RefTotal>Jackson DL, Teal CR, Raines SJ, Nansel TR, Force RC, Burdsal CA. The dimensions of students&#39; perceptions of teaching effectiveness. Educ Psychol Meas. 1999;59:580-596. DOI: 10.1177&#47;00131649921970035</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;00131649921970035</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Griffin BW</RefAuthor>
        <RefTitle>Instructor Reputation and Student Ratings of Instruction</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Contemp Educ Psychol</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Griffin BW. Instructor Reputation and Student Ratings of Instruction. Contemp Educ Psychol. 2001;26(4). DOI: 10.1006&#47;ceps.2000.1075</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1006&#47;ceps.2000.1075</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Duelli R</RefAuthor>
        <RefAuthor>Resch F</RefAuthor>
        <RefAuthor>Schultz JH</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Fakult&#228;tsinterne Pr&#252;fungen an den deutschen medizinischen Fakult&#228;ten</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc44</RefPage>
        <RefTotal>M&#246;ltner A, Duelli R, Resch F, Schultz JH, J&#252;nger J. Fakult&#228;tsinterne Pr&#252;fungen an den deutschen medizinischen Fakult&#228;ten. GMS Z Med Ausbild. 2010;27(3):Doc44. DOI: 10.3205&#47;zma000681</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000681</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Thompson BM</RefAuthor>
        <RefAuthor>Rogers JC</RefAuthor>
        <RefTitle>Exploring the learning curve in medical education: using self-assessment as a measure of learning</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>S86-S88</RefPage>
        <RefTotal>Thompson BM, Rogers JC. Exploring the learning curve in medical education: using self-assessment as a measure of learning. Acad Med. 2008;83(10 Suppl):S86-S88. DOI: 10.1097&#47;ACM.0b013e318183e5fd</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;ACM.0b013e318183e5fd</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Skeff KM</RefAuthor>
        <RefAuthor>Stratos GA</RefAuthor>
        <RefAuthor>Bergen MR</RefAuthor>
        <RefTitle>Evaluation of a Medical Faculty Development Program</RefTitle>
        <RefYear>1992</RefYear>
        <RefJournal>Eval Health Prof</RefJournal>
        <RefPage>350-366</RefPage>
        <RefTotal>Skeff KM, Stratos GA, Bergen MR. Evaluation of a Medical Faculty Development Program. Eval Health Prof. 1992;15(3):350-366. DOI: 10.1177&#47;016327879201500307</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;016327879201500307</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Globalbewertungen und Lernzuwachsdaten sowie die Rangpl&#228;tze der 21 Module. Die Module sind in der zeitlichen Reihenfolge, wie sie in dem dreij&#228;hrigen klinischen Curriculum stattfinden, aufgef&#252;hrt.</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 1: Overall ratings, mean CSA gain and rankings of all 21 clinical modules, listed in their order of appearance in the three-year clinical curriculum. CSA, comparative self-assessment. Each term lasts 6 months.</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Korrelationen zwischen studentischen Bewertungen der 21 Module und dem mittels vergleichender Selbsteinsch&#228;tzung berechneten Lernerfolg (pro Modul &#252;ber 15 Lernziele gemittelt). </Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 2: Correlations between student ratings of the 21 modules and CSA gain (aggregated across 15 learning objectives per module). </Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="114" width="367">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Lernzuwachs &#91;&#37;&#93;</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 1: CSA gain &#91;&#37;&#93;</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="264" width="285">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Korrelation zwischen Modul-Gesamtnote und berechnetem Lernerfolg f&#252;r alle 21 Module des klinischen Studienabschnitts (r &#61; -0,42; r</Mark1><Mark1><Superscript>2 </Superscript></Mark1><Mark1>&#61; 18&#37;; p &#61; 0,061).</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Correlation between overall module ratings and CSA gain for all 21 modules of the clinical phase of medical education (r &#61; -0,42; r</Mark1><Mark1><Superscript>2</Superscript></Mark1><Mark1> &#61; 18&#37;; p &#61; 0,061). CSA, comparative self-assessment</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>2</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>