<?xml version="1.0" encoding="ISO-8859-1"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000266</Identifier>
    <ArticleType>Projekt</ArticleType>
    <TitleGroup>
      <Title language="de">OSCE - praktische Tipps zur Implementierung einer klinisch-praktischen Prüfung</Title>
      <TitleAlternative/>
      <TitleTranslated language="en">OSCE - hands on instructions for the implementation of an objective structured clinical examination</TitleTranslated>
      <TitleTranslatedAlternative/>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Nikendei</Lastname>
          <LastnameHeading>Nikendei</LastnameHeading>
          <Firstname>Christoph</Firstname>
          <Initials>C</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
        </PersonNames>
        <Address>Medizinische Universitätsklinik Heidelberg, Ludolf-Krehl-Klinik, Klinik für Allgemeine Klinische Medizin und Psychosomatik, Im Neuenheimer Feld 410, 69120 Heidelberg, Deutschland, Tel.: 06221/56-38663, Fax: 06221/56-5988<Affiliation>Medizinische Universitätsklinik Heidelberg, Ludolf-Krehl-Klinik, Klinik für Allgemeine Klinische Medizin und Psychosomatik, Heidelberg, Deutschland</Affiliation>
</Address>
        <Email>christoph_nikendei@med.uni-heidelberg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Jünger</Lastname>
          <LastnameHeading>Jünger</LastnameHeading>
          <Firstname>Jana</Firstname>
          <Initials>J</Initials>
          <AcademicTitle>Dr. med</AcademicTitle>
        </PersonNames>
        <Address>
          <Affiliation>Medizinische Universitätsklinik Heidelberg, Ludolf-Krehl-Klinik, Klinik für Allgemeine Klinische Medizin und Psychosomatik, Heidelberg, Deutschland</Affiliation>
        </Address>
        <Email>jana_juenger@med.uni-heidelberg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science</Corporatename>
        </Corporation>
        <Address>Düsseldorf, Köln</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">OSCE</Keyword>
      <Keyword language="en">undergraduate medical education</Keyword>
      <Keyword language="en">standard setting</Keyword>
      <Keyword language="en">reliability</Keyword>
      <Keyword language="en">validity</Keyword>
      <Keyword language="de">OSCE</Keyword>
      <Keyword language="de">klinisch-praktische Prüfung</Keyword>
      <Keyword language="de">Standard Setting</Keyword>
      <Keyword language="de">Reliabilität</Keyword>
      <Keyword language="de">Validität</Keyword>
      <Keyword language="de">Notenvergabe</Keyword>
      <SectionHeading language="de">Humanmedizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20050803</DateReceived>
    <DatePublishedList>
<DatePublished>20060815</DatePublished>
</DatePublishedList>
    <Language>germ</Language>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>23</Volume>
        <Issue>3</Issue>
        <JournalTitle>GMS Zeitschrift für Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
        <IssueTitle>Themenheft Prüfungen</IssueTitle>
      </Journal>
    </SourceGroup>
    <ArticleNo>47</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes">
<Pgraph>
<Mark1>Einleitung:</Mark1> Der OSCE (objective structured clinical examination) hat sich als reliables und valides Instrument zur Prüfung klinisch-praktischer Fertigkeiten erwiesen. In Hinblick auf die vermehrt praxisnahe Ausbildung im Medizinstudium wächst die Notwendigkeit der Durchführung einer solchen klinisch-praktischen Prüfung. Um eine Implementierung zu erleichtern wird nach einem Literaturüberblick der 12-Stationen-OSCE an der Medizinischen Universitätsklinik Heidelberg in Hinblick auf Konzeption, Bestimmung der Bestehensgrenze, Durchführung und Notenvergabe vorgestellt.</Pgraph>
<Pgraph>
<Mark1>Methode:</Mark1> Im WS 2004 / 2005 nahmen 143 Medizinstudenten des interdisziplinären Blocks Innere Medizin an einem 12-Stationen-OSCE teil. Die Prüfungskonzeption erfolgte mit Hilfe eines Blueprint. Die Bestehensgrenze wurde mit einer modifizierten Angoff-Methode festgelegt, die Prüfungsleistung an einzelnen OSCE-Stationen von Experten mit Hilfe von eigens entwickelten Checklisten bestimmt.</Pgraph>
<Pgraph>
<Mark1>Ergebnisse:</Mark1> Der durchgeführte OSCE weist bezüglich der Reliabilität ein Cronbach alpha von 0,748 auf. Aufgrund der im Standard Setting festgelegten Bestehensgrenze erreichten 142 Studenten (99,3%) Prozent das Prüfungsziel. Das Absolvieren der Prüfung am 1., 2. oder 3. Prüfungstag hatte keinen Einfluss auf die Benotung der studentischen Leistung.</Pgraph>
<Pgraph>
<Mark1>Diskussion: </Mark1>Der OSCE an der Medizinischen Universitätsklinik Heidelberg erweist sich als reliables und gerechtes Prüfungsinstrument. Auch wenn der OSCE ein ressourcen- und zeitaufwendiges Prüfungsinstrument darstellt, erweist er sich bei guter Planung und Organisation als eine selbst bei großen Studentenzahlen in einem Regelstudiengang realisierbare Prüfungsform, welche eine hohe Zufriedenheit bei Studenten und Prüfern hinterlässt.</Pgraph>
</Abstract>
    <Abstract language="en" linked="yes">
<Pgraph>
<Mark1>Introduction:</Mark1> Objective structured clinical examinations (OSCEs) have proved to be a reliable and valid assessment tool for basic clinical skills. In regards to the more and more practical education of medical students there is an increasing need for the implementation of OSCEs. To facilitate this implementation we would like to give a review of literature and to present our 12 station OSCE at the Medical Hospital of the University of Heidelberg.</Pgraph>
<Pgraph>
<Mark1>Methods:</Mark1> During winter term 2004 / 2005 143 medical students in thir 3rd year of training participated the OSCE. For the conception of the assessment a blueprint was used. Standard setting was carried out with a modified Angoff method, students performance was assessed by experts using self-developed checklists.</Pgraph>
<Pgraph>
<Mark1>Results:</Mark1> The OSCE at the Medical Hospital of the University of Heidelberg showed a reliability of 0,748. According to the results of the standard setting procedure 142 students (99,3%) passed the exam. Taking the OSCE on the first, second or third day of assessment did not have impact on students' performance.</Pgraph>
<Pgraph>
<Mark1>Discussion:</Mark1> The OSCE at the Medical Hospital of the University of Heidelberg proves to be a reliable and fair assessment tool. Even the OSCE represents an assessment tool that needs resources and time it is well accepted in students and raters if it is planned and organised carefully.</Pgraph>
</Abstract>
    <TextBlock name="Einleitung" linked="yes">
      <MainHeadline>Einleitung</MainHeadline>
<SubHeadline>Klinisch-praktische Prüfungen im Licht der Novellierung der Ärztliche Approbationsordnung</SubHeadline>
<Pgraph>Klinisch-praktische Prüfungen in Form eines OSCE (objective structured clinical examination, <TextLink reference="57"/>) haben in den vergangenen Jahren weltweit eine hohe Akzeptanz und Verbreitung gefunden. Mit dieser Prüfungsform werden die Medizinstudenten direkt auf der Stufe des "shows how" der Lernpyramide von Miller <TextLink reference="34"/> geprüft, also die Durchführung prozeduraler Fertigkeiten und Fähigkeiten direkt beurteilt. Die Novellierung der Approbationsordnung für Ärzte <TextLink reference="3"/> betont eine praxisnahe Ausbildung von Medizinstudenten, womit in der Konsequenz auch die Durchführung solcher klinisch-praktischen Prüfungen an deutschen Medizinischen Fakultäten zur Leistungsbewertung und Notenvergabe einen wichtigen Stellenwert einnehmen wird. Dies impliziert die Notwendigkeit, eine gerechte, dem Wissensstand angepasste, reliable und valide OSCE-Prüfung zu gewährleisten. Hierbei werden die einzelnen Fakultäten mit organisatorischen und logistischen Schwierigkeiten konfrontiert. Um die Planung, Konzeption und Durchführung eines OSCE zu erleichtern, möchten wir den aktuellen Forschungsstand und die Konsequenzen für eine praxisnahe, ressourcensparende Umsetzung einer OSCE-Prüfung am Beispiel der Medizinischen Universitätsklinik Heidelberg skizzieren.</Pgraph>
<SubHeadline>Was ist ein OSCE?</SubHeadline>
<Pgraph>Das Prüfungsformat eines OSCE wurde erstmals an der Universität Dundee in Schottland durchgeführt und von Harden et al. <TextLink reference="19"/> publiziert. Die einzelnen Medizinstudenten rotieren beim OSCE durch einen Prüfungsparcours mit einer Serie von Prüfungsstationen, an denen sie definierte klinisch-praktische Fertigkeiten unter Beweis stellen müssen. An jeder Prüfungsstation wird die Prüfungsleistung durch einen Prüfer anhand einer Checkliste beurteilt. Die im Namen beinhaltete "Objektivität" und "Strukturierung" spiegeln sich in der hohen Anzahl von Prüfungsstationen und beteiligten Prüfern sowie in den standardisierten Aufgabenstellungen und inhaltlich definierten Checklisten wieder.</Pgraph>
<SubHeadline>Validität des OSCE und Blueprint</SubHeadline>
<Pgraph>Die Validität von OSCEs konnte in vielen Fällen nachgewiesen werden (z.B. <TextLink reference="22"/>, <TextLink reference="29"/>, <TextLink reference="6"/>, <TextLink reference="7"/>). Um eine hohe Inhaltsvalidität eines OSCE herzustellen, empfiehlt Newble <TextLink reference="37"/> drei Schritte bei der Prüfungskonzeption: Erstens die Festlegung von Problemfeldern, in denen die Prüflinge kompetent sein sollen, zweitens die Definition von Aufgabenstellungen innerhalb dieser Problemfelder und - drittens - die Erstellung eines "Blueprint". Mit Hilfe des "Blueprint" werden die Prüfungsinhalte des OSCE mit den Zielen des der Prüfung zugrunde liegenden Curriculums abgeglichen. Der Blueprint gewährleistet, dass alle Curriculumsziele geprüft werden und die entscheidenden Schlüsselprobleme angemessen repräsentiert sind <TextLink reference="14"/>. Im einfachsten Fall besteht ein Blueprint aus einer zweidimensionalen Matrix, bei der auf einer Achse allgemeine zu testende Kompetenzen (z.B. Anamneseerhebung, körperliche Untersuchung usw.) verzeichnet sind, auf der anderen die Problemstellungen, mit welchen diese Kompetenzen abgeprüft werden sollen <TextLink reference="36"/>. Ein Beispiel für einen Blueprint wird in Tabelle 1 <ImgLink imgNo="1" imgType="table"/> veranschaulicht.</Pgraph>
<SubHeadline>Reliabilität des OSCE: Anzahl und Dauer der Prüfungsstationen</SubHeadline>
<Pgraph>Zu den Einflussvariablen, die die Reliabilität <TextLink reference="35"/> eines OSCE möglicherweise beeinflussen können, zählen die Anzahl der Prüfer, die Anzahl an Prüfungsstationen, die Strukturiertheit der Prüfung und die unterschiedlichen bei der Prüfung eingesetzten standardisierten Patienten <TextLink reference="55"/>. Den gewichtigsten Faktor stellt allerdings die Anzahl der beim OSCE verwandten Prüfungsstationen dar. Aufgrund der Spezifität der Problemstellungen an den einzelnen Prüfungsstationen ist es notwendig, eine hohe Anzahl von unterschiedlichen Problemfällen und damit von Prüfungsstationen zum Einsatz zu bringen, um eine Reliabilität um 0,8 zu erzielen, wie für "high stakes" Examina gefordert <TextLink reference="56"/>, <TextLink reference="50"/>, <TextLink reference="37"/>. Das Accreditation Council for Graduate Medical Education (ACGME) und das American Board of Medical Specialties (ABMS) <TextLink reference="50"/> empfehlen die Implementierung von 14 - 18 Prüfungsstationen à 10 - 15 Minuten. Für eine einzelne Prüfungsstation mit einem standardisierten Patienten (SP) <TextLink reference="4"/> zur Anamneseerhebung und Durchführung einer körperlichen Untersuchung ist eine Prüfungszeit von 15 Minuten einzukalkulieren <TextLink reference="8"/>. Anzahl und Dauer der OSCE-Stationen werden in der Praxis ganz unterschiedlich festgelegt:</Pgraph>
<Pgraph>&#8226; Universität Dundee, Schottland: 25 - 35 Prüfungsstationen à 4½ Minuten <TextLink reference="14"/>
</Pgraph>
<Pgraph>&#8226; Medical Council, Canada: 20 Prüfungsstationen à 10 Minuten <TextLink reference="44"/>
</Pgraph>
<Pgraph>&#8226; Havard Medical School, USA: 16 Prüfungsstationen à 9 Minuten <TextLink reference="18"/>
</Pgraph>
<Pgraph>Die in der Literatur für die Durchführung von reliablen OSCEs veranschlagte Zeitdauer und Anzahl der Prüfungsstationen dürfte für die deutschen Fakultäten kaum realisierbar sein (vgl. <TextLink reference="56"/>, <TextLink reference="50"/>, <TextLink reference="37"/>). Ziel der vorliegenden Untersuchung war es deshalb zu prüfen, inwieweit ein OSCE mit weniger Stationen und kürzerer Prüfungsdauer die geforderte Reliabilität erreicht.</Pgraph>
<SubHeadline>Checklisten oder globales Rating?</SubHeadline>
<Pgraph>Traditionell werden beim OSCE Checklisten mit binären Items ("korrekt" / "nicht korrekt") verwandt, mit deren Hilfe die korrekte Durchführung von Teilschritten der Prüfungsaufgabe festgehalten wird <TextLink reference="32"/>, <TextLink reference="49"/> (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>). Bei einem globalen Rating hingegen werden z.B. für insgesamt vier prozedurale Dimensionen jeweils fünf Punkte vergeben <TextLink reference="21"/> (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>). Checklisten mit binären Items bergen die Gefahr, die Prüfer durch eine Fokussierung auf die Checklisten-Items abzulenken <TextLink reference="15"/>, <TextLink reference="23"/>, <TextLink reference="47"/>, so dass eine steigende Zahl von Items die Reliabilität und Validität des OSCE reduziert <TextLink reference="59"/>. Auch insgesamt erweist sich ein globales Rating (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>) in Bezug auf Reliabilität, interne Konsistenz und Validität der Verwendung von Checklisten als ebenbürtig <TextLink reference="22"/>, <TextLink reference="43"/>, <TextLink reference="42"/>, <TextLink reference="45"/>, <TextLink reference="54"/> und bildet interaktive Kompetenzebenen wie Empathie und ethische Haltungen besser ab <TextLink reference="41"/>, <TextLink reference="53"/>. Auf der Ebene der Prüflinge führt ein globales Rating bei der Prüfung kommunikativer Fähigkeiten zu vermehrt offenen Fragen, ein Checklisten-Rating zu vielen fokussierten, geschlossenen Fragen <TextLink reference="23"/>. Die Kombination aus globalem Rating und der Verwendung von Checklisten ist möglich und kann durchaus sinnvoll sein. Newble <TextLink reference="37"/> empfiehlt bei Stationen mit vorrangig technischen Fertigkeiten eine Checkliste als adäquates Evaluationsinstrument, bei der Prüfung von kommunikativen Kompetenzen hingegen die Verwendung eines globalen Ratings. Ziel der vorliegenden Studie war es, ein eigenes Checklistenformat zu entwickeln, welches die Vorteile eines Checklisten-Ratings und einem globalen Rating vereint.</Pgraph>
<SubHeadline>Der OSCE als formative und summative Prüfungsform / Feedback während des OSCE</SubHeadline>
<Pgraph>OSCEs können mit unterschiedlichen Intentionen durchgeführt werden. In vielen Fällen wird der OSCE als sogenannte formative Prüfung eingesetzt <TextLink reference="31"/>. Dies bedeutet, dass der OSCE in diesem Falle dazu dient, den Studenten ein konstruktives Feedback über ihren aktuellen Wissens- und Könnensstand geben zu können. Defizite in der Durchführung prozeduraler Fertigkeiten können somit identifiziert und korrigiert werden <TextLink reference="52"/>. Bei summativen Prüfungen dient der OSCE dagegen vorrangig zur Entscheidung über das Vorhandensein notwendiger Qualifikationen zum Bestehen von definierten Abschnitten eines Curriculums.</Pgraph>
<Pgraph>Eine eineinhalbminütiges Feedback im Anschluss an die Absolvierung einzelner OSCE-Stationen wird von den Medizinstudenten als hilfreich und wenig störend empfunden <TextLink reference="1"/>. Ein solches Feedback führt nachgewiesener Maßen nachfolgend zu einer Verbesserung der studentischen Fertigkeiten <TextLink reference="20"/>.</Pgraph>
<SubHeadline>Standard Setting - Ermittlung der Bestehensgrenze eines OSCE</SubHeadline>
<Pgraph>Mit einem Standard Setting wird die Bestehensgrenze eines OSCE festgelegt, die "kompetente" von "nicht-kompetenten" Studenten trennen soll. Man unterscheidet je nach Vorgehensweise kriteriumsorientierte, normorientierte und holistische Methoden (siehe Tabelle 2 <ImgLink imgNo="2" imgType="table"/>). Die willkürliche Festlegung einer Bestehensgrenze (z.B. 60%), wie es das Vorgehen bei der holistischen Methode vorsieht, weist eine ungenügend begründbare Entscheidungsbasis über das Bestehen oder Nicht-Bestehen einer Prüfung auf <TextLink reference="17"/>. Aber auch normorientierte Verfahren haben Schwächen, die in unter anderem in der relativen Bewertung der Studenten untereinander zu sehen sind <TextLink reference="28"/>. Die kriteriumsorientierten Methoden bieten hingegen gute Zugänge zur Ermittlung der Bestehensgrenze und sollen hier kurz skizziert werden.</Pgraph>
<Pgraph>Bei der Methode nach Angoff, die beispielsweise in den USA (ECFMG/CSA) <TextLink reference="5"/> verwandt wird, wird die Bestehensgrenze bereits vor der Prüfung durch eine Gruppe von Experten festgelegt. Diese Experten sollten über die Prüfungsstandards informiert und mit der Prüfungsmethode vertraut sein und den Kenntnisstand der Medizinstudenten einschätzen können. Zudem sollten sie sich über die Schwierigkeit der Prüfungsaufgabe im Klaren sein, was durch die Demonstration von Videos oder die eigene Durchführung der Prüfungsaufgabe unter examensähnlichen Bedingungen unterstützt werden kann <TextLink reference="5"/>, <TextLink reference="17"/>. Searle <TextLink reference="48"/> verwandte für die Angoff-Methode eine Anzahl von drei Experten.</Pgraph>
<Pgraph>Friedman <TextLink reference="17"/> empfiehlt eine modifizierte Angoff-Methode ("modified Angoff") mit einem Vorgehen in vier Schritten in dessen Zentrum die Frage steht, wie viele Punkte ein sogenannter "Borderline-Prüfungskandidat" an einzelnen Prüfungsstation erzielen würde. Nach einem ersten Rating der Experten werden die Einschätzungen untereinander präsentiert und diskutiert, bevor ein zweites, endgültiges Rating erfolgt. Ein "Borderline-Prüfungskandidat" wird dabei definiert als ein Prüfungsteilnehmer, der die Experten weder als qualifiziert, noch als unqualifiziert einschätzen <TextLink reference="5"/>. Der Mittelwert dieser Einschätzungen gibt die Bestehensgrenze für die einzelnen Stationen bzw. die Mittelwertsbildung über alle Prüfungsstationen die Bestehensgrenze für die gesamte OSCE-Prüfung an. Es ist dabei zu berücksichtigen, dass die Ratings immer in Form der Anzahl von erreichten Punkten erfolgen sollten und nicht in Prozentwerten, da sich gezeigt hat, dass sich die Experten von gängigen Vorstellungen von Bestehensgrenzen (z.B. 50% oder 70%) beeinflussen lassen. Nachteile der Angoff-Methode sind in der Zeitaufwendigkeit und der hypothetischen Herangehensweise zur Festlegung der Bestehensgrenze zu sehen <TextLink reference="17"/>.</Pgraph>
<Pgraph>Bei der Borderline-Methode, die beispielsweise vom Medical Council von Canada verwandt wird <TextLink reference="45"/>, wird die Bestehensgrenze hingegen empirisch durch eine direkte Beobachtung während der Prüfung festgelegt, so dass keine zusätzliche Zeit zur Bestimmung der Bestehensgrenze aufgewandt werden muss <TextLink reference="37"/>. Nachteil dieser Methode ist es, dass die Bestehensgrenze nicht wie in den meisten Studienordnungen gefordert vor der Prüfung festgelegt werden kann. Die Einschätzung, ob ein Prüfling ein "Borderline-Prüfungskandidat" ist, wird durch eine zusätzliche Skala auf der Checkliste der einzelnen Stationen festgelegt (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>), die in der Praxis auf unterschiedliche Weise erfolgen kann:</Pgraph>
<Pgraph>&#8226; Rating auf einer Skala bestehend aus: pass / borderline / fail <TextLink reference="46"/>
</Pgraph>
<Pgraph>&#8226; Rating auf einer Skala bestehend aus: fail, borderline, pass, above expected standard <TextLink reference="13"/>
</Pgraph>
<Pgraph>Der Mittelwert der an den einzelnen Stationen von den "Borderline-Prüfungskandidaten" erreichten Punktzahlen entspricht wiederum der Bestehensgrenze der OSCE-Prüfung.</Pgraph>
<Pgraph>Eine Modifikation der Borderline-Methode stellt die Kontrast-Gruppen-Methode dar, bei der keine Gruppe von "Borderline-Prüfungskandidaten" definiert wird, sondern lediglich eine Unterscheidung in "kompetent" vs "&#8222;nicht-kompetent" erfolgt und anhand dieser Festlegung die Errechnung der Bestehensgrenze erfolgt <TextLink reference="5"/>. Sowohl die Borderline-Methode als auch die Kontrast-Gruppen-Methode bieten beide konsistente und realistische Standards <TextLink reference="12"/>.</Pgraph>
<Pgraph>Sowohl bei der Methode nach Angoff als auch bei der Borderline-Methode stellt es sich für die Experten bzw. die Prüfer häufig als schwierig dar, sich einen "Borderline-Prüfungskandidaten" vorzustellen. Ziel war es dementsprechend eine modifizierte Angoff-Methode zu entwickeln, die es erlaubt eine Standard Setting innerhalb kurzer Zeit effizient durchzuführen.</Pgraph>
<SubHeadline>Der OSCE als kompensatorische oder non-kompensatorische Prüfungsform?</SubHeadline>
<Pgraph>Bei einem kompensatorischen Ansatz muss der Prüfling lediglich eine bestimmte Gesamtpunktzahl beim OSCE erreichen - eine unzufriedenstellende Leistung an einer einzelnen OSCE-Station kann durch eine bessere Leistung an einer beliebigen anderen Station ausgeglichen werden. Bei einem non-kompensatorischen OSCE müssen die Studenten einzelne oder im Extremfall an allen OSCE-Stationen die Bestehensgrenze erreichen, um auch den gesamten OSCE erfolgreich zu bestehen. Es existiert keine falsche oder richtige Antwort auf die Frage, ob ein kompensatorischer oder non-kompensatorischer Ansatz präferiert werden sollte und welcher Zugang der validere ist <TextLink reference="37"/>. Für die Befürwortung einer non-kompensatorischen Vorgehensweise spricht, dass die Prüflinge in allen Bereichen ihre Fähigkeiten unter Beweis stellen müssen. Die Gefahr dieses Modells ist jedoch, dass eine schlecht konzipierte Station eventuell schlecht zwischen "kompetenten" und "nicht-kompetenten" Studenten trennt und nicht nur die "nicht-kompetenten" Studenten die Leistungserwartung an dieser Station nicht erfüllen. Außerdem kann es auch für gute Studenten zulässig sein, Schwierigkeiten bei der Absolvierung von ein oder zwei Stationen aufzuweisen <TextLink reference="9"/>, <TextLink reference="17"/>. Als schwierig erweist sich bei non-kompensatorischen OSCE-Stationen auch die Wiederholung von nicht bestandenen OSCE-Stationen. Da der Prüfling meist nur wenige Stationen nicht bestanden hat, müsste er nur diejenigen wiederholen, was in einem laufenden OSCE nicht praktikabel ist.</Pgraph>
<Pgraph>Im Folgenden soll die praktische Umsetzung einer klinisch-praktischen Prüfung am Beispiel des OSCE im Wintersemester 2004 / 2005 an der Medizinischen Universitätsklinik Heidelberg in Hinblick auf Konzeption, Bestimmung der Bestehensgrenze, Durchführung und Notenvergabe dargestellt werden.</Pgraph>
</TextBlock>
    <TextBlock name="Methoden" linked="yes">
      <MainHeadline>Methoden</MainHeadline>
<SubHeadline>Der OSCE an der Medizinischen Universitätsklinik Heidelberg</SubHeadline>
<Pgraph>An der Medizinischen Universitätsklinik Heidelberg werden OSCEs seit dem Wintersemester 2001/2002 durchgeführt (vgl. <TextLink reference="26"/>). Die OSCEs finden im 6. bzw. 7. Studiensemester am Ende des 14-wöchigen Blockkurses "Innere Medizin" statt, während dem sich die Studenten klinisch-praktisch Kompetenzen beim Kommunikationstraining mit standardisierten Patienten <TextLink reference="25"/> <TextLink reference="40"/>, beim Skills-Lab-Training <TextLink reference="38"/>, <TextLink reference="39"/> und beim Einsatz auf Station erwerben können. Die Prüfungsinhalte werden jeweils mit Hilfe eines Blueprint auf die Lernziele des Blockes Innere Medizin abgestimmt (siehe Tabelle 1 <ImgLink imgNo="1" imgType="table"/>). Zu Beginn ihres Einsatzes in der Medizinischen Universitätsklinik werden die Studenten über den Ablauf und die Formalien des OSCE informiert. Die OSCE-Prüfung in Heidelberg ist eine kompensatorische Prüfung. Bei Nicht-Bestehen muss die gesamte Prüfung ein Semester später wiederholt werden.</Pgraph>
<SubHeadline>Design der Stationen und Checklisten / Standard Setting und Notenvergabe</SubHeadline>
<Pgraph>Die einzelnen Prüfungsstationen des 12-Stationen-OSCE wurden von Vertretern der jeweiligen internistischen Teildisziplin in Übereinstimmung mit dem entworfenen Blueprint entwickelt. Als Grundlage diente ein definiertes Checklistenformat mit einem modifizierten Rating mit fünf Teilaufgaben, bei denen jeweils 5 Punkte zu erzielen waren. Insgesamt konnte somit eine Maximalpunktzahl von 25 pro Prüfungsstation erreicht werden. Das Checklistenformat beinhaltet sowohl Anteile des Checklisten-Ratings als auch des globalen Ratings: So werden z.B. für die Teilaufgabe 1 und 2 der Checkliste in Abbildung 2 <ImgLink imgNo="2" imgType="figure"/> nur die maximal zu erreichende Punktzahl vorgegeben, so dass der Gesamteindruck des Prüfers bezüglich der Gesprächsführung und Empathie mit in die globale Bewertung einfließen kann.</Pgraph>
<Pgraph>Zur Ermittlung der Bestehensgrenze wurde ein modifiziertes Vorgehen nach Angoff <TextLink reference="2"/> entwickelt. Ein Vertreter jeder internistischen Teildisziplin (n=10) nahm als Experte am Standard Setting teil und gab ein Rating zur "minimal zu demonstrierenden Kompetenz" in Form der minimal zu erreichenden Punktzahl für jede einzelne Stationen ab. Der Mittelwert der Einschätzung aller Experten ergab die Bestehensgrenze für die entsprechende Station, der Mittelwert über alle Stationen hinweg die Bestehensgrenze für den OSCE. Da in Deutschland die Notwendigkeit der Notenvergabe besteht, wurden die Punktwerte über der Bestehensgrenze in vier gleichgroße Abschnitte unterteilt, entsprechend den Noten eins bis vier.</Pgraph>
<SubHeadline>Ablauf des OSCE</SubHeadline>
<Pgraph>Alle 12 Stationen des OSCE im Wintersemester 2004 / 2005 waren mit der Stationsnummer beschildert. Maximal zwei Stationen waren - abgetrennt durch einen Sichtschutz - in einem Prüfungsraum lokalisiert. Pro Station stand den Medizinstudenten eine Prüfungszeit von fünf Minuten zur Verfügung mit einer sich anschließenden einminütigen Wechselzeit. Der Beginn und das Ende der Prüfungszeit wurde jeweils mit einem lauten Signalton angezeigt. Ein einmaliger Durchlauf des 12-Stationen-OSCE nahm somit 72 Minuten in Anspruch. Bis zum nachfolgenden OSCE-Durchlauf wurde jeweils eine Pause von 18 Minuten eingelegt. Über drei Tage hinweg wurden jeweils zwei Mal nacheinander zwei parallele OSCE-Prüfungen durchgeführt, somit also pro Tag maximal vier Gruppen à 12 Studenten geprüft. Insgesamt wurden an den drei Prüfungstagen 143 Studenten der OSCE-Prüfung unterzogen.</Pgraph>
<Pgraph>Um eine Informationsweitergabe zwischen den Studentengruppen zu vermeiden, wurden die Prüflinge eines Prüfungstages gemeinsam in einem Warteraum gesammelt. Zwischen den einzelnen Prüfungstagen wurden die OSCE-Parcours inhaltlich leicht modifiziert, um ebenfalls eine Informationsweitergabe zu erschweren. Die Identifikation der Medizinstudenten erfolgte mittels Personalausweis. Die von den Medizinstudenten mitzubringenden Utensilien umfassten Arztkittel, Stethoskop und Reflexhammer. Bevor die Studenten den Parcours betraten, wurden sie mittels eines Parcours-Planes über die Lage der Stationen informiert und in den zeitlichen und räumlichen Ablauf unterwiesen.</Pgraph>
<Pgraph>An den Stationen selbst wurde zuerst der Namen der Studenten erfragt und dieser auf der Checkliste notiert. Mit dem ersten Signalton wurde die Aufgabenstellung vom Prüfer wörtlich vorgelesen. Diese stand den Studenten zusätzlich in schriftlicher Version an den einzelnen Prüfungsstationen zur Verfügung. Mit dem zweiten Signalton endete die Prüfungszeit und die erreichte Gesamtsumme wurde vom Prüfer notiert. Der Medizinstudent erhielt ein kurzes Feedback (ca. 30s) zu seiner Prüfungsleistung ohne die Nennung des erreichten Punktwertes, bevor er zur nächsten Station gebeten wurde. Anschließend wurde die Checkliste vom Prüfer unterschrieben und in die vorgesehene Ablage gelegt.</Pgraph>
<SubHeadline>Die Prüfer</SubHeadline>
<Pgraph>Für jede Prüfungsstation des OSCE wurde ein Prüfer aus dem jeweiligen Fachgebiet festgelegt. Alle Prüfer erhielten direkt vor dem Beginn der Prüfung eine 30-minütige Einführung in den Ablauf der Prüfung, das Procedere an den Prüfungsstationen sowie die erwarteten Lösungen der Aufgabenstellungen. Alle Prüfer prüften zwei OSCE-Durchläufe und wurden in der Pause mit Essen und Trinken versorgt. Da mit zwei parallelen Parcours geprüft wurde, wurden pro Tag 24 Prüfer über eine Zeit von ca. 3,5 Stunden (inklusive Einführung und Pause) benötigt, um 48 Studenten zu prüfen.</Pgraph>
<SubHeadline>Die Helfer und standardisierten Patienten</SubHeadline>
<Pgraph>Für den Aufbau der beiden 12-Stationen-OSCEs war die Hilfe von vier Personen über ca. drei Stunden erforderlich. Während des OSCE war für beide Parcours ein "Zeitgeber" für die Einhaltung der Prüfungszeiten und die Abgabe des Signaltons sowie eine Person als zentrale Aufsicht und als Ansprechpartner bei auftretenden Problemen verantwortlich. Eine weitere Person pro Parcours war für das Einsammeln der Checklisten und deren Kontrolle auf Vollständigkeit zuständig, darüber hinaus achtete eine zusätzliche Person pro Parcours darauf, dass die Studenten problemlos zur nächstfolgenden Prüfungsstation fanden. Eine Person über dieselbe Zeit diente der Kontrolle, Einführung und Betreuung der Studenten vor ihrem jeweiligen Prüfungsbeginn, so dass insgesamt vier Helfer zum Aufbau sowie sieben Helfer während der eigentlichen Prüfungszeit benötigt wurden. Dass lediglich ein "Zeitgeber" und eine zentrale Aufsicht zum Einsatz kommen musste lag an der räumlichen Nähe der beiden Parcours. An jeweils zwei Prüfungsstationen waren standardisierte Patienten (SP) <TextLink reference="4"/> für die Prüfung kommunikativer Fähigkeiten und an einer Stationen ein SP für die Prüfung körperlicher Untersuchungstechniken eingesetzt. Nicht berücksichtigt bleibt in dieser Aufstellung der Zeitaufwand für die Erstellung der Prüfungsstationen (je nach Vorerfahrung ca. 3 Stunden pro Station), für die im Vorfeld notwendige Prüfungsorganisation, für das Standard Setting (ca. 2,5 Stunden) sowie für die Auswertung der Prüfungsergebnisse.</Pgraph>
<SubHeadline>Bestehensgrenze, Leistungsbewertung und statistische Analyse</SubHeadline>
<Pgraph>Die Bestehensgrenze des OSCE wurde anhand des zuvor beschriebenen Standard Setting bestimmt. Die Punktwerte über der Bestehensgrenze wurden in vier gleich große Anteile geteilt und den Notenwerten 1 bis 4 zugeteilt. Die Reliabilität des OSCE wurde mittels Cronbach alpha auf Basis der an den einzelnen Prüfungsstationen erreichten Punktwerte bestimmt. Zudem wurde für die einzelnen Stationen die durchschnittlich erreichte Punktzahl, die Standardabweichung, die Trennschärfe (Korrelation der Punktzahl mit der Gesamtpunktzahl an <Mark2>allen</Mark2> Stationen) und die korrigierte Trennschärfe (Korrelation der Punktzahl mit der Summe <Mark2>aller anderen </Mark2>Stationen) errechnet. Das Abschneiden an den einzelnen Prüfungstagen wurde mittels Varianzanalyse verglichen.</Pgraph>
</TextBlock>
    <TextBlock name="Ergebnisse" linked="yes">
      <MainHeadline>Ergebnisse</MainHeadline>
<SubHeadline>Stichprobenbeschreibung</SubHeadline>
<Pgraph>Im Wintersemester 2004 / 2005 nahmen n = 143 Medizinstudenten des 6. Studiensemesters des interdisziplinären Blocks Innere Medizin (53 Männer, 88 Frauen) mit einem Durchschnittsalter von 24,7 Jahren (Männer 25,4 J., Frauen 24,2 J.) teil.</Pgraph>
<SubHeadline>Ergebnisse des Standard Setting und Bestehensgrenze</SubHeadline>
<Pgraph>Die Bestehensgrenze für die einzelnen OSCE-Stationen wird aus Tabelle 3 <ImgLink imgNo="3" imgType="table"/> ersichtlich. Die Mittelwertbildung über die 12 Stationen ergab für den OSCE des WS 2004 / 2005 eine Bestehensgrenze von 188 Punkten.</Pgraph>
<SubHeadline>Prüfungsergebnisse und Notenvergabe</SubHeadline>
<Pgraph>Die im Durchschnitt erreichten Punktzahlen an den 12 Prüfungsstationen ist ebenfalls Tabelle 3 <ImgLink imgNo="3" imgType="table"/> zu entnehmen. Im Durchschnitt wurde von den Studenten eine Gesamtpunktzahl von 249,6 (SD = 20,2; min. = 172, max. = 284) erreicht. Studenten, die am ersten, zweiten und dritten Prüfungstag den OSCE durchliefen unterschieden sich in ihren Prüfungsergebnissen nicht voneinander (Varianzanalyse: F(2,140) = 0,844, p = 0,432). Daten zur Aufgabenschwierigkeit und Trennschärfe <TextLink reference="35"/> finden sich ebenfalls in Tabelle 3 <ImgLink imgNo="3" imgType="table"/>. Die Reliabilität des OSCE belief sich auf ein Cronbach alpha von 0,748.</Pgraph>
<Pgraph>Die prozentuale Verteilung der Noten entsprechend der erreichten Gesamtpunktzahlen ist aus Tabelle 4 <ImgLink imgNo="4" imgType="table"/> ersichtlich. Ein Student (0,7%) blieb unterhalb der Bestehensgrenze und erreichte das Prüfungsziel nicht.</Pgraph>
</TextBlock>
    <TextBlock name="Diskussion" linked="yes">
      <MainHeadline>Diskussion</MainHeadline>
<Pgraph>Der OSCE stellt eine Prüfungsmethode dar, die sich sehr gut zur Prüfung von wesentlichen klinisch-praktischen und kommunikativen Kompetenzen zukünftiger Ärzte eignet. Vor allem in Folge der Novellierung der Approbationsordnung für Ärzte <TextLink reference="3"/> wird die Durchführung einer klinisch-praktischen Prüfung zunehmend an Bedeutung gewinnen. Allerdings ist die OSCE-Prüfung bei den Studentenzahlen deutscher Fakultäten mit organisatorischen und logistischen Herausforderungen verknüpft. Das Anliegen der vorliegenden Arbeit war eine zeit- und ressourcenschonende Implementierung an anderen Fakultäten in Hinblick auf Konzeption, Durchführung und Notenvergabe zu erleichtern.</Pgraph>
<Pgraph>Die Bestehensgrenze für den an der Medizinischen Universitätsklinik Heidelberg durchgeführten OSCE wurde mit einem modifizierten Standard Setting Verfahren nach Angoff <TextLink reference="2"/>, <TextLink reference="17"/> festgelegt. Wenngleich dieses zusätzliche Zeit- und Personalressourcen beansprucht und im Vergleich zur Borderline-Methode <TextLink reference="30"/> einen hypothetischen Zugang zur Festlegung einer Bestehensgrenze präferiert <TextLink reference="17"/>, bietet sie deutliche Vorteile gegenüber der Borderline-Methode: So kann der Notwendigkeit der Ankündigung der Bestehensgrenze vor Prüfungsbeginn leichter Rechnung getragen werden und die Bildung von Expertenteams zur Festlegung der Bestehensgrenzen dient darüber hinaus der Curriculumsentwicklung und dem Einbezug von Kollegen in verantwortliche Entscheidungsprozesse.</Pgraph>
<Pgraph>In der Konzeption des OSCE entschieden wir uns für ein neues Checklistenformat, welches die Vorteile eines Checklisten-Ratings und eines globalen Ratings integriert, um höhere Kompetenzebenen mit zu erfassen <TextLink reference="41"/> <TextLink reference="53"/> sowie für die Durchführung des OSCE in einer kompensatorischen Form. Hiermit sollte vermieden werden, dass schlechter konzipierte Stationen zum Nachteil für "kompetente" Studenten werden (vgl. <TextLink reference="9"/>, <TextLink reference="17"/>), zumal bisher unklar ist, welcher Zugang der validere ist <TextLink reference="37"/>. Der vorgestellte OSCE beinhaltete sowohl Prüfungsstationen mit hoher Trennschärfe, die gut zwischen "kompetenten" und "nicht-kompetenten" Studenten unterschieden, als auch Stationen, die elementares Grundwissen mit geringerer Trennschärfe abprüften.</Pgraph>
<Pgraph>99,3% der Medizinstudenten erreichten die festgelegte Bestehensgrenze unseres OSCE. Äquivalent zu Berichten in der Literatur (vgl. <TextLink reference="33"/>) lagen die erreichten Punktwerte der Prüflinge im oberen Wertebereich. Eine differenzierte Notenvergabe war problemlos möglich. Obwohl sich die gesamte Prüfung über drei Tage hinzog, unterschieden sich die studentischen Prüfungsleistungen an den unterschiedlichen Prüfungstagen nicht. Die Erfahrung zeigt, dass eine Informationsweitergabe mit nachfolgenden Täuschungsversuchen eher zu einem schlechteren Abschneiden führt, da die Studenten auf eine Modifikationen der Stationen nicht vorbereitet sind und in dem Versuch zuvor gehörtes zu reproduzieren nicht mehr so ungezwungen und frei auftreten. Das informelle Feedback von studentischer Seite und von Prüfern zeigt, dass der OSCE als Prüfung sowohl den Prüflingen als auch den Prüfern Spaß bereitet und auf beiden Seiten Zufriedenheit hinterlässt. Diese in Fokusgruppen zusammengetragene Resonanz bezieht sich dabei sowohl auf die Art der Prüfungsform, die Prüfungsinhalte als auch auf das Feedback während der Prüfung selbst.</Pgraph>
<Pgraph>Aufgrund der hohen Anzahl von zu prüfenden Studenten war in Hinblick auf die Personalintensität des OSCE notwendig, Prüfer mit einzubeziehen, die noch nicht genügend Erfahrung mit dieser Prüfungsform sammeln konnten. Hilfreich war hier das obligatorische Prüfertraining direkt vor dem OSCE. Aufgrund der unmittelbaren zeitlichen Nähe zur Prüfung und den direkten Bezug zur zu prüfenden Station, erwies sich dieses als sehr effizient.</Pgraph>
<Pgraph>Der vorgestellte OSCE (Abbildung 3 <ImgLink imgNo="3" imgType="figure"/>) erweist sich als reliables und faires Prüfungsinstrument, welches wichtige ärztliche Basisfertigkeiten direkt prüft, Medizinstudenten und Prüfern Spaß bereitet und nicht zuletzt durch das integrierte Feedback einen wichtigen Lerneffekt für die Studenten beinhaltet.</Pgraph>
</TextBlock>
    <References linked="yes">
      <Reference refNo="3">
        <RefAuthor>Bundesgesundheitsministerium</RefAuthor>
        <RefTitle>Approbationsordnung für Ärzte</RefTitle>
        <RefYear>2002</RefYear>
        <RefTotal>Approbationsordnung für Ärzte, Beschluss des Bundesrates vom 26.4.2002. Bonn: Bundesanzeiger Verlagsgesellschaft mbH, Drucksache 316/02; 2002.</RefTotal>
      </Reference>
      <Reference refNo="1">
        <RefAuthor>Allen R</RefAuthor>
        <RefAuthor>Heard J</RefAuthor>
        <RefAuthor>Savidge M</RefAuthor>
        <RefAuthor>Bittergle J</RefAuthor>
        <RefAuthor>Cantrell M</RefAuthor>
        <RefAuthor>Huffmaster T</RefAuthor>
        <RefTitle>Surveying Students' Attitudes During the OSCE</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Adv Health Sci Educ Theory Pract</RefJournal>
        <RefPage>197-206</RefPage>
        <RefTotal>Allen R, Heard J, Savidge M, Bittergle J, Cantrell M, Huffmaster T. Surveying Students' Attitudes During the OSCE. Adv Health Sci Educ Theory Pract. 1998;3:197-206.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Angoff WH</RefAuthor>
        <RefTitle>Scales, norms, and equivalent scores</RefTitle>
        <RefYear>1971</RefYear>
        <RefBookTitle>Educational measurement (2nd ed)</RefBookTitle>
        <RefPage>508-600</RefPage>
        <RefTotal>Angoff WH. Scales, norms, and equivalent scores. In: Thorndike RL, editor. Educational measurement (2nd ed.), Washington, DC: American Council on Education; 1971; p. 508-600.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Barrows HS</RefAuthor>
        <RefTitle>An overview of the uses of standardized patients for teaching and evaluating clinical skills</RefTitle>
        <RefYear>1993</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>443-453</RefPage>
        <RefTotal>Barrows HS. An overview of the uses of standardized patients for teaching and evaluating clinical skills. Acad Med. 1993;68(6):443-453.</RefTotal>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Boulet JR</RefAuthor>
        <RefAuthor>de Champlain AF</RefAuthor>
        <RefAuthor>McKinley DW</RefAuthor>
        <RefTitle>Setting defensible performance standards on OSCEs and standardized patient examinations</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>245-249</RefPage>
        <RefTotal>Boulet JR, de Champlain AF, McKinley DW. Setting defensible performance standards on OSCEs and standardized patient examinations. Med Teach. 2003;25:245-249.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Campos-Outcalt D</RefAuthor>
        <RefAuthor>Watkins A</RefAuthor>
        <RefAuthor>Fulginiti J</RefAuthor>
        <RefAuthor>Kutob R</RefAuthor>
        <RefAuthor>Gordon P</RefAuthor>
        <RefTitle>Correlations of family medicine clerkship evaluations and Objective Structured Clinical Examination scores and residency directors' ratings</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Fam Med</RefJournal>
        <RefPage>90-94</RefPage>
        <RefTotal>Campos-Outcalt D, Watkins A, Fulginiti J, Kutob R, Gordon P. Correlations of family medicine clerkship evaluations and Objective Structured Clinical Examination scores and residency directors' ratings. Fam Med. 1999;31:90-94.</RefTotal>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Cerilli GJ</RefAuthor>
        <RefAuthor>Merrick HW</RefAuthor>
        <RefAuthor>Staren ED</RefAuthor>
        <RefTitle>Objective Structured Clinical Examination technical skill stations correlate more closely with postgraduate year level than do clinical skill stations</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Am Surg</RefJournal>
        <RefPage>323-326</RefPage>
        <RefTotal>Cerilli GJ, Merrick HW, Staren ED. Objective Structured Clinical Examination technical skill stations correlate more closely with postgraduate year level than do clinical skill stations. Am Surg. 2001;67:323-326.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Chambers KA</RefAuthor>
        <RefAuthor>Boulet JR</RefAuthor>
        <RefAuthor>Gary NE</RefAuthor>
        <RefTitle>The management of patient encounter time in a high-stakes assessment using standardized patients</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>813-817</RefPage>
        <RefTotal>Chambers KA, Boulet JR, Gary NE. The management of patient encounter time in a high-stakes assessment using standardized patients. Med Educ. 2000;34:813-817.</RefTotal>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Chesser AM</RefAuthor>
        <RefAuthor>Laing MR</RefAuthor>
        <RefAuthor>Miedzybrodzka ZH</RefAuthor>
        <RefAuthor>Brittenden J</RefAuthor>
        <RefAuthor>Heys SD</RefAuthor>
        <RefTitle>Factor analysis can be a useful standard setting tool in a high stakes OSCE assessment</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>825-831</RefPage>
        <RefTotal>Chesser AM, Laing MR, Miedzybrodzka ZH, Brittenden J, Heys SD. Factor analysis can be a useful standard setting tool in a high stakes OSCE assessment. Med Educ. 2004;38:825-831.</RefTotal>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Cohen-Schotanus J</RefAuthor>
        <RefAuthor>van der Vleuten CPM</RefAuthor>
        <RefAuthor>Bender W</RefAuthor>
        <RefTitle>Een betere cesuur bij tentamens: de beste studenten als referentiepunt [A better cutoff for examinations: the best students as a reference point]</RefTitle>
        <RefYear>1996</RefYear>
        <RefBookTitle>Gezond Onderwijs [Health Education], Vol. 5</RefBookTitle>
        <RefPage>83-88</RefPage>
        <RefTotal>Cohen-Schotanus J, van der Vleuten CPM, Bender W. Een betere cesuur bij tentamens: de beste studenten als referentiepunt [A better cutoff for examinations: the best students as a reference point]. In: Ten Cate TJ, Dikkers JH, Houtkoop E, Pollemans MC, Pols J, Smal JA, (Hrsg). Gezond Onderwijs [Health Education], Vol. 5. Houten/ Diegem, The Netherlands: Bohn Stafleu van Loghum. 1996;83-88.</RefTotal>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Colliver JA</RefAuthor>
        <RefAuthor>Willis MS</RefAuthor>
        <RefAuthor>Robbs RS</RefAuthor>
        <RefAuthor>Cohen DS</RefAuthor>
        <RefAuthor>Swartz MH</RefAuthor>
        <RefTitle>Assessment of empathy in a standardized-patient examination</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Teach Learn Med</RefJournal>
        <RefPage>8-11</RefPage>
        <RefTotal>Colliver JA, Willis MS, Robbs RS, Cohen DS, Swartz MH. Assessment of empathy in a standardized-patient examination. Teach Learn Med. 1998;10:8-11.</RefTotal>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Cusimano MD</RefAuthor>
        <RefAuthor>Rothman AI</RefAuthor>
        <RefTitle>Consistency of standards and stability of pass/fail decisions with examinee-based standard-setting methods in a small-scale objective structured clinical examination</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>25-27</RefPage>
        <RefTotal>Cusimano MD, Rothman AI. Consistency of standards and stability of pass/fail decisions with examinee-based standard-setting methods in a small-scale objective structured clinical examination. Acad Med. 2004;79:25-27.</RefTotal>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Dauphinee WD</RefAuthor>
        <RefAuthor>Blackmore DE</RefAuthor>
        <RefAuthor>Smee SM</RefAuthor>
        <RefAuthor>Rothman AI</RefAuthor>
        <RefAuthor>Reznick RK</RefAuthor>
        <RefTitle>Using the judgments of physician examiners in setting the standards for a national multi-center high stakes OSCE</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>Adv Health Sci Educ Theory Pract</RefJournal>
        <RefPage>201-211</RefPage>
        <RefTotal>Dauphinee WD, Blackmore DE, Smee SM, Rothman AI, Reznick RK. Using the judgments of physician examiners in setting the standards for a national multi-center high stakes OSCE. Adv Health Sci Educ Theory Pract. 1997;2:201-211.</RefTotal>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Davis MH</RefAuthor>
        <RefTitle>OSCE: the Dundee experience</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>255-261</RefPage>
        <RefTotal>Davis MH. OSCE: the Dundee experience. Med Teach. 2003;25:255-261.</RefTotal>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Dreyfus HL</RefAuthor>
        <RefAuthor>Dreyfus SE</RefAuthor>
        <RefTitle/>
        <RefYear>1986</RefYear>
        <RefBookTitle>Mind over Machine</RefBookTitle>
        <RefPage/>
        <RefTotal>Dreyfus HL, Dreyfus SE. Mind over Machine. New York: Free Press; 1986.</RefTotal>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Ebel RL</RefAuthor>
        <RefTitle/>
        <RefYear>1972</RefYear>
        <RefBookTitle>Essentials of educational measurement</RefBookTitle>
        <RefPage/>
        <RefTotal>Ebel RL. Essentials of educational measurement. Englewood Cliffs, NJ: Prentice Hall; 1972.</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Friedman Ben-David M</RefAuthor>
        <RefTitle/>
        <RefYear>2000</RefYear>
        <RefBookTitle>Standard setting in student assessment</RefBookTitle>
        <RefPage/>
        <RefTotal>Friedman Ben-David M. Standard setting in student assessment. AMEE Med. Educ. Guide No. 18. Dundee: AMEE; 2000.</RefTotal>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Hamann C</RefAuthor>
        <RefAuthor>Volkan K</RefAuthor>
        <RefAuthor>Fishman MB</RefAuthor>
        <RefAuthor>Silvestri RC</RefAuthor>
        <RefAuthor>Simon SR</RefAuthor>
        <RefAuthor>Fletcher SW</RefAuthor>
        <RefTitle>How well do second-year student learn physical diagnosis? Observational study of an objective structured clinical examination (OSCE)</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>1</RefPage>
        <RefTotal>Hamann C, Volkan K, Fishman MB, Silvestri RC, Simon SR, Fletcher SW. How well do second-year student learn physical diagnosis? Observational study of an objective structured clinical examination (OSCE). BMC Med Educ. 2002;2:1.</RefTotal>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Harden RMcG</RefAuthor>
        <RefAuthor>Stevenson M</RefAuthor>
        <RefAuthor>Wilson Downie W</RefAuthor>
        <RefAuthor>Wilson GM</RefAuthor>
        <RefTitle>Assessment of Clinical Competence using Objective structured Examination</RefTitle>
        <RefYear>1975</RefYear>
        <RefJournal>Brit Med J</RefJournal>
        <RefPage>447-451</RefPage>
        <RefTotal>Harden RMcG, Stevenson M, Wilson Downie W, Wilson GM. Assessment of Clinical Competence using Objective structured Examination. Brit Med J. 1975;1:447-451.</RefTotal>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Hodder R</RefAuthor>
        <RefAuthor>Rivington R</RefAuthor>
        <RefAuthor>Calcutt LE</RefAuthor>
        <RefAuthor>Hart IR</RefAuthor>
        <RefTitle>The effectiveness of immediate feedback during the OSCE</RefTitle>
        <RefYear>1989</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>184-188</RefPage>
        <RefTotal>Hodder R, Rivington R, Calcutt LE, Hart IR. The effectiveness of immediate feedback during the OSCE. Med Educ. 1989;23:184-188.</RefTotal>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Hodges B</RefAuthor>
        <RefAuthor>McIlroy JH</RefAuthor>
        <RefTitle>Analytic global OSCE ratings are sensitive to level of training</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1012-1016</RefPage>
        <RefTotal>Hodges B, McIlroy JH. Analytic global OSCE ratings are sensitive to level of training. Med Educ. 2003;37:1012-1016.</RefTotal>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Hodges B</RefAuthor>
        <RefAuthor>Regehr G</RefAuthor>
        <RefAuthor>Hanson M</RefAuthor>
        <RefAuthor>McNaughton N</RefAuthor>
        <RefTitle>Validation of an objective structured clinical examination in psychiatry</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>910-912</RefPage>
        <RefTotal>Hodges B, Regehr G, Hanson M, McNaughton N. Validation of an objective structured clinical examination in psychiatry. Acad Med. 1998;73:910-912.</RefTotal>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Hodges B</RefAuthor>
        <RefAuthor>Regehr G</RefAuthor>
        <RefAuthor>McNaughton N</RefAuthor>
        <RefAuthor>Tiberius R</RefAuthor>
        <RefAuthor>Hanson M</RefAuthor>
        <RefTitle>Checklists do not capture increasing levels of expertise</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>1129-1134</RefPage>
        <RefTotal>Hodges B, Regehr G, McNaughton N, Tiberius R, Hanson M. Checklists do not capture increasing levels of expertise. Acad Med. 1999;74:1129-1134.</RefTotal>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Jaeger RM</RefAuthor>
        <RefTitle>An interactive structures judgement process for establishing standards on competency tests. Theory and application</RefTitle>
        <RefYear>1982</RefYear>
        <RefJournal>Educ Eval Policy Anal</RefJournal>
        <RefPage>461-476</RefPage>
        <RefTotal>Jaeger RM. An interactive structures judgement process for establishing standards on competency tests. Theory and application. Educ Eval Policy Anal. 1982;4:461-476.</RefTotal>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Jünger J</RefAuthor>
        <RefAuthor>Köllner V</RefAuthor>
        <RefTitle>Integration eines Kommunikationstrainings in die klinische Lehre</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Psychother Psychosom Med Psychol</RefJournal>
        <RefPage>56-64</RefPage>
        <RefTotal>Jünger J, Köllner V. Integration eines Kommunikationstrainings in die klinische Lehre. Psychother Psychosom Med Psychol. 2003;53:56-64.</RefTotal>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Jünger J</RefAuthor>
        <RefAuthor>Nikendei C</RefAuthor>
        <RefTitle/>
        <RefYear>2005</RefYear>
        <RefBookTitle>OSCE Prüfungsvorbereitung Innere Medizin</RefBookTitle>
        <RefPage/>
        <RefTotal>Jünger J, Nikendei C. OSCE Prüfungsvorbereitung Innere Medizin. Stuttgart: Thieme; 2005.</RefTotal>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Jünger J</RefAuthor>
        <RefAuthor>Schäfer S</RefAuthor>
        <RefAuthor>Schellberg D</RefAuthor>
        <RefAuthor>Roth C</RefAuthor>
        <RefAuthor>Ben-David M</RefAuthor>
        <RefAuthor>Nikendei C</RefAuthor>
        <RefTitle>Effects of Basic Clinical Skills Training on OSCE performance among medical students: a group control design study</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1015-1020</RefPage>
        <RefTotal>Jünger J, Schäfer S, Schellberg D, Roth C, Ben-David M, Nikendei C. Effects of Basic Clinical Skills Training on OSCE performance among medical students: a group control design study. Med Educ. 2005;39:1015-1020.</RefTotal>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Kaufman DM</RefAuthor>
        <RefAuthor>Mann KV</RefAuthor>
        <RefAuthor>Muijtjens AMM</RefAuthor>
        <RefAuthor>van der Vleuten CPM</RefAuthor>
        <RefTitle>A Comparison of Standard-setting Procedures for an OSCE in Undergraduate Medical Education</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>267-271</RefPage>
        <RefTotal>Kaufman DM, Mann KV, Muijtjens AMM, van der Vleuten CPM. A Comparison of Standard-setting Procedures for an OSCE in Undergraduate Medical Education. Acad Med. 2000;75:267-271.</RefTotal>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Lieberman ME</RefAuthor>
        <RefAuthor>Volkan K</RefAuthor>
        <RefAuthor>Shaffer K</RefAuthor>
        <RefAuthor>Novelline R</RefAuthor>
        <RefAuthor>Lang EV</RefAuthor>
        <RefTitle>Clinical competence assessment in radiology: introduction of an objective structured clinical examination in the medical school curriculum</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Acad Radiol</RefJournal>
        <RefPage>74-81</RefPage>
        <RefTotal>Lieberman ME, Volkan K, Shaffer K, Novelline R, Lang EV. Clinical competence assessment in radiology: introduction of an objective structured clinical examination in the medical school curriculum. Acad Radiol. 2001;8:74-81.</RefTotal>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Livingston SA</RefAuthor>
        <RefAuthor>Zieky MJ</RefAuthor>
        <RefTitle/>
        <RefYear>1982</RefYear>
        <RefBookTitle>Passing scores: A manual for setting standards of performance on educational and occupational tests</RefBookTitle>
        <RefPage/>
        <RefTotal>Livingston SA, Zieky MJ. Passing scores: A manual for setting standards of performance on educational and occupational tests. Princeton, New Jersey: Educational Testing Services; 1982.</RefTotal>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Mavis B</RefAuthor>
        <RefAuthor>Cole B</RefAuthor>
        <RefAuthor>Hoppe R</RefAuthor>
        <RefTitle>A survey of student assessment in U.S. medical schools: The balance of breadth versus fidelity</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Teach Learn Med</RefJournal>
        <RefPage>74-79</RefPage>
        <RefTotal>Mavis B, Cole B, Hoppe R. A survey of student assessment in U.S. medical schools: The balance of breadth versus fidelity. Teach Learn Med. 2001;13:74-79.</RefTotal>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>McIlroy JH</RefAuthor>
        <RefAuthor>Hodges B</RefAuthor>
        <RefAuthor>McNaughton N</RefAuthor>
        <RefAuthor>Regehr G</RefAuthor>
        <RefTitle>The effect of candidates' perceptions of the evaluation method on reliability of checklist and global rating scores in an objective structured clinical examination</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>725-728</RefPage>
        <RefTotal>McIlroy JH, Hodges B, McNaughton N, Regehr G. The effect of candidates' perceptions of the evaluation method on reliability of checklist and global rating scores in an objective structured clinical examination. Acad Med. 2002;77:725-728.</RefTotal>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>McLachlan JG</RefAuthor>
        <RefAuthor>Whiten SG</RefAuthor>
        <RefTitle>Marks, scores and grades: scaling and aggregating student assessment outcomes</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>788-797</RefPage>
        <RefTotal>McLachlan JG, Whiten SG. Marks, scores and grades: scaling and aggregating student assessment outcomes. Med Educ. 2000;34:788-797.</RefTotal>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>Miller GE</RefAuthor>
        <RefTitle>The assessment of clinical skills/competence/performance</RefTitle>
        <RefYear>1990</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>63-67</RefPage>
        <RefTotal>Miller GE. The assessment of clinical skills/competence/performance. Acad Med. 1990;65:63-67.</RefTotal>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>Möltner A</RefAuthor>
        <RefTitle>Die quantitative Analyse einer Prüfung</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc. 52</RefPage>
        <RefTotal>Möltner A. Die quantitative Analyse einer Prüfung. GMS Z Med Ausbild. 2006;23(3): Doc. 52.</RefTotal>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Nedelsky L</RefAuthor>
        <RefTitle>Absolute grading standards for objective tests</RefTitle>
        <RefYear>1954</RefYear>
        <RefJournal>Educ Psychol Meas</RefJournal>
        <RefPage>13-19</RefPage>
        <RefTotal>Nedelsky L. Absolute grading standards for objective tests. Educ Psychol Meas. 1954;14:13-19.</RefTotal>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>Newble D</RefAuthor>
        <RefTitle>Techniques for measuring clinical competence: objective structured clinical examinations</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Med.Educ</RefJournal>
        <RefPage>199-203</RefPage>
        <RefTotal>Newble D. Techniques for measuring clinical competence: objective structured clinical examinations. Med.Educ. 2004;38:199-203.</RefTotal>
      </Reference>
      <Reference refNo="40">
        <RefAuthor>Nikendei C</RefAuthor>
        <RefAuthor>Zipfel S</RefAuthor>
        <RefAuthor>Roth C</RefAuthor>
        <RefAuthor>Löwe B</RefAuthor>
        <RefAuthor>Herzog W</RefAuthor>
        <RefAuthor>Jünger J</RefAuthor>
        <RefTitle>Kommunikations- und Interaktionstraining im Psychosomatischen Praktikum: Einsatz von standardisierten Patienten</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Psychother Psychosom Med Psychol</RefJournal>
        <RefPage>440-445</RefPage>
        <RefTotal>Nikendei C, Zipfel S, Roth C, Löwe B, Herzog W, Jünger J. Kommunikations- und Interaktionstraining im Psychosomatischen Praktikum: Einsatz von standardisierten Patienten. Psychother Psychosom Med Psychol. 2003;53(11):440-445.</RefTotal>
      </Reference>
      <Reference refNo="38">
        <RefAuthor>Nikendei C</RefAuthor>
        <RefAuthor>Schilling T</RefAuthor>
        <RefAuthor>Nawroth P</RefAuthor>
        <RefAuthor>Hensel M</RefAuthor>
        <RefAuthor>Ho AD</RefAuthor>
        <RefAuthor>Schwenger V</RefAuthor>
        <RefAuthor>Ritz E</RefAuthor>
        <RefAuthor>Herzog W</RefAuthor>
        <RefAuthor>Schellberg D</RefAuthor>
        <RefAuthor>Katus HA</RefAuthor>
        <RefAuthor>Dengler T</RefAuthor>
        <RefAuthor>Stremmel W</RefAuthor>
        <RefAuthor>Müller M</RefAuthor>
        <RefAuthor>Jünger J</RefAuthor>
        <RefTitle>Integriertes Skills-Lab-Konzept für die studentische Ausbildung in der Inneren Medizin</RefTitle>
        <RefYear>2005a</RefYear>
        <RefJournal>Dtsch Med Wochenschr</RefJournal>
        <RefPage>1133-1138</RefPage>
        <RefTotal>Nikendei C, Schilling T, Nawroth P, Hensel M, Ho AD, Schwenger V, Ritz E, Herzog W, Schellberg D, Katus HA, Dengler T, Stremmel W, Müller M, Jünger J. Integriertes Skills-Lab-Konzept für die studentische Ausbildung in der Inneren Medizin. Dtsch Med Wochenschr. 2005a;130:1133-1138.</RefTotal>
      </Reference>
      <Reference refNo="39">
        <RefAuthor>Nikendei C</RefAuthor>
        <RefAuthor>Zeuch A</RefAuthor>
        <RefAuthor>Dieckmann P</RefAuthor>
        <RefAuthor>Roth C</RefAuthor>
        <RefAuthor>Schäfer S</RefAuthor>
        <RefAuthor>Völkl M</RefAuthor>
        <RefAuthor>Schellberg D</RefAuthor>
        <RefAuthor>Herzog W</RefAuthor>
        <RefAuthor>Jünger J</RefAuthor>
        <RefTitle>Role-playing for a More Realistic Technical Skills Training</RefTitle>
        <RefYear>2005b</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>122-126</RefPage>
        <RefTotal>Nikendei C, Zeuch A, Dieckmann P, Roth C, Schäfer S, Völkl M, Schellberg D, Herzog W, Jünger J. Role-playing for a More Realistic Technical Skills Training. Med Teach. 2005b;27(2):122-126.</RefTotal>
      </Reference>
      <Reference refNo="41">
        <RefAuthor>Norman GR</RefAuthor>
        <RefAuthor>van der Vleuten CPM</RefAuthor>
        <RefAuthor>de Graaff E</RefAuthor>
        <RefTitle>Pitfalls in the pursuit of objectivity: issues of validity, efficiency and acceptability</RefTitle>
        <RefYear>1991</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>119-126</RefPage>
        <RefTotal>Norman GR, van der Vleuten CPM, de Graaff E. Pitfalls in the pursuit of objectivity: issues of validity, efficiency and acceptability. Med Educ. 1991;25:119-126.</RefTotal>
      </Reference>
      <Reference refNo="42">
        <RefAuthor>Regehr G</RefAuthor>
        <RefAuthor>Freeman R</RefAuthor>
        <RefAuthor>Hodges B</RefAuthor>
        <RefAuthor>Russell L</RefAuthor>
        <RefTitle>Assessing the generalisability of OSCE measures across content domains</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>1320-1322</RefPage>
        <RefTotal>Regehr G, Freeman R, Hodges B, Russell L. Assessing the generalisability of OSCE measures across content domains. Acad Med. 1999;74:1320-1322.</RefTotal>
      </Reference>
      <Reference refNo="43">
        <RefAuthor>Regehr G</RefAuthor>
        <RefAuthor>MacRae H</RefAuthor>
        <RefAuthor>Reznick R</RefAuthor>
        <RefAuthor>Szalay D</RefAuthor>
        <RefTitle>Comparing the psychometric properties of checklists and global rating scales for assessing performance on an OSCE-format examination</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>993-997</RefPage>
        <RefTotal>Regehr G, MacRae H, Reznick R, Szalay D. Comparing the psychometric properties of checklists and global rating scales for assessing performance on an OSCE-format examination. Acad Med. 1998;73:993-997.</RefTotal>
      </Reference>
      <Reference refNo="44">
        <RefAuthor>Reznick R</RefAuthor>
        <RefAuthor>Blackmore D</RefAuthor>
        <RefAuthor>Dauphinee WD</RefAuthor>
        <RefAuthor>Rothman A</RefAuthor>
        <RefAuthor>Smee S</RefAuthor>
        <RefTitle>Large-scale high- stakes testing with an OSCE. Report from the Medical Council of Canada</RefTitle>
        <RefYear>1996</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>19-21</RefPage>
        <RefTotal>Reznick R, Blackmore D, Dauphinee WD, Rothman A, Smee S. Large-scale high- stakes testing with an OSCE. Report from the Medical Council of Canada. Acad Med. 1996;71:19-21.</RefTotal>
      </Reference>
      <Reference refNo="45">
        <RefAuthor>Reznick R</RefAuthor>
        <RefAuthor>Regehr G</RefAuthor>
        <RefAuthor>Yee G</RefAuthor>
        <RefAuthor>Rothman A</RefAuthor>
        <RefAuthor>Blackmore D</RefAuthor>
        <RefAuthor>Dauphinee D</RefAuthor>
        <RefTitle>Process rating forms versus task specific checklists in an OSCE for medical licensure</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>97-99</RefPage>
        <RefTotal>Reznick R, Regehr G, Yee G, Rothman A, Blackmore D, Dauphinee D. Process rating forms versus task specific checklists in an OSCE for medical licensure. Acad Med. 1998;73:97-99.</RefTotal>
      </Reference>
      <Reference refNo="46">
        <RefAuthor>Rothman AI</RefAuthor>
        <RefAuthor>Blackmore D</RefAuthor>
        <RefAuthor>Dauphinee WD</RefAuthor>
        <RefAuthor>Reznick R</RefAuthor>
        <RefTitle>The use of global ratings in OSCE station scores</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>Adv Health Sci Educ Theory Pract</RefJournal>
        <RefPage>215-219</RefPage>
        <RefTotal>Rothman AI, Blackmore D, Dauphinee WD, Reznick R. The use of global ratings in OSCE station scores. Adv Health Sci Educ Theory Pract. 1997;1:215-219.</RefTotal>
      </Reference>
      <Reference refNo="47">
        <RefAuthor>Schmidt HG</RefAuthor>
        <RefAuthor>Norman GR</RefAuthor>
        <RefAuthor>Boshuizen E</RefAuthor>
        <RefTitle>A cognitive perspective on medical expertise: theory and implications</RefTitle>
        <RefYear>1990</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>611-621</RefPage>
        <RefTotal>Schmidt HG, Norman GR, Boshuizen E. A cognitive perspective on medical expertise: theory and implications. Acad Med. 1990;65:611-621.</RefTotal>
      </Reference>
      <Reference refNo="48">
        <RefAuthor>Searle J</RefAuthor>
        <RefTitle>Defining competency - the role of standard setting</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>363-366</RefPage>
        <RefTotal>Searle J. Defining competency - the role of standard setting. Med Educ. 2000;34:363-366.</RefTotal>
      </Reference>
      <Reference refNo="49">
        <RefAuthor>Simon SR</RefAuthor>
        <RefAuthor>Volkan K</RefAuthor>
        <RefAuthor>Hamann C</RefAuthor>
        <RefAuthor>Duffey C</RefAuthor>
        <RefAuthor>Fletcher SW</RefAuthor>
        <RefTitle>The relationship between second-year medical students' OSCE scores and USMLE Step 1 scores</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>535-539</RefPage>
        <RefTotal>Simon SR, Volkan K, Hamann C, Duffey C, Fletcher SW. The relationship between second-year medical students' OSCE scores and USMLE Step 1 scores. Med Teach. 2002;24:535-539.</RefTotal>
      </Reference>
      <Reference refNo="50">
        <RefAuthor>Swanson DB</RefAuthor>
        <RefAuthor>Norman GR</RefAuthor>
        <RefAuthor>Linn RL</RefAuthor>
        <RefTitle>Performance-based assessment: Lessons learnt from the health professions</RefTitle>
        <RefYear>1995</RefYear>
        <RefJournal>Educ Res</RefJournal>
        <RefPage>5-11</RefPage>
        <RefTotal>Swanson DB, Norman GR, Linn RL. Performance-based assessment: Lessons learnt from the health professions. Educ Res. 1995;24:5-11.</RefTotal>
      </Reference>
      <Reference refNo="51">
        <RefAuthor>Swing S</RefAuthor>
        <RefAuthor>Bashook PG</RefAuthor>
        <RefTitle/>
        <RefYear>2000</RefYear>
        <RefBookTitle>Toolbox of Assessment Methods</RefBookTitle>
        <RefPage/>
        <RefTotal>Swing S, Bashook PG. Toolbox of Assessment Methods. ACGME Outcomes Project. Accreditation Council for Graduate Medical Education (ACGME) &amp; American Board of Medical Specialties (ABMS); Version 1.1; 2000. Zugänglich unter: http://www.acgme.org/outcome/assess/toolbox.pdf.</RefTotal>
      </Reference>
      <Reference refNo="52">
        <RefAuthor>Townsend AH</RefAuthor>
        <RefAuthor>Mcllvenny S</RefAuthor>
        <RefAuthor>Miller CJ</RefAuthor>
        <RefAuthor>Dunn EV</RefAuthor>
        <RefTitle>The use of an objective structured clinical examination (OSCE) for formative and summative assessment in a general practice clinical attachment and its relationship to final medical school examination performance</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>841-846</RefPage>
        <RefTotal>Townsend AH, Mcllvenny S, Miller CJ, Dunn EV. The use of an objective structured clinical examination (OSCE) for formative and summative assessment in a general practice clinical attachment and its relationship to final medical school examination performance. Med Educ. 2001;35:841-846.</RefTotal>
      </Reference>
      <Reference refNo="56">
        <RefAuthor>Van der Vleuten CPM</RefAuthor>
        <RefTitle>The assessment of professional competence: Developments, research and practical implications</RefTitle>
        <RefYear>1996</RefYear>
        <RefJournal>Adv Health Sci Educ</RefJournal>
        <RefPage>41-67</RefPage>
        <RefTotal>Van der Vleuten CPM. The assessment of professional competence: Developments, research and practical implications. Adv Health Sci Educ. 1996;1:41-67.</RefTotal>
      </Reference>
      <Reference refNo="55">
        <RefAuthor>Van der Vleuten CPM</RefAuthor>
        <RefTitle/>
        <RefYear>2002</RefYear>
        <RefBookTitle>Reliability of OSCEs</RefBookTitle>
        <RefPage/>
        <RefTotal>Van der Vleuten CPM. Reliability of OSCEs. University of Maastricht: AMEE conference, 29th August - 1st September 2002. Maastricht: AMEE; 2002. Zugänglich unter: http:// www.fdg.unimaas.nl/educ/cees/amee.</RefTotal>
      </Reference>
      <Reference refNo="53">
        <RefAuthor>Van der Vleuten CPM</RefAuthor>
        <RefAuthor>Norman GR</RefAuthor>
        <RefAuthor>de Graaff E</RefAuthor>
        <RefTitle>Pitfalls in the pursuit of objectivity: issues of reliability</RefTitle>
        <RefYear>1991</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>110-118</RefPage>
        <RefTotal>Van der Vleuten CPM, Norman GR, de Graaff E. Pitfalls in the pursuit of objectivity: issues of reliability. Med Educ. 1991;25:110-118.</RefTotal>
      </Reference>
      <Reference refNo="54">
        <RefAuthor>Van der Vleuten CPM</RefAuthor>
        <RefAuthor>Swanson DB</RefAuthor>
        <RefTitle>Assessment of clinical skills with standardized patients: state of the art</RefTitle>
        <RefYear>1990</RefYear>
        <RefJournal>Teach Learn Med</RefJournal>
        <RefPage>58-76</RefPage>
        <RefTotal>Van der Vleuten CPM, Swanson DB. Assessment of clinical skills with standardized patients: state of the art. Teach Learn Med. 1990;2:58-76.</RefTotal>
      </Reference>
      <Reference refNo="57">
        <RefAuthor>Wass V</RefAuthor>
        <RefAuthor>van der Vleuten C</RefAuthor>
        <RefAuthor>Shatzer J</RefAuthor>
        <RefAuthor>Jones R</RefAuthor>
        <RefTitle>Assessment of clinical competence</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Lancet</RefJournal>
        <RefPage>945-949</RefPage>
        <RefTotal>Wass V, van der Vleuten C, Shatzer J, Jones R. Assessment of clinical competence. Lancet. 2001;357:945-949.</RefTotal>
      </Reference>
      <Reference refNo="58">
        <RefAuthor>Wijnen WHFW</RefAuthor>
        <RefTitle/>
        <RefYear>1971</RefYear>
        <RefBookTitle>Onder of Boven de Maat [Missing or Hitting the Mark]</RefBookTitle>
        <RefPage/>
        <RefTotal>Wijnen WHFW. Onder of Boven de Maat [Missing or Hitting the Mark]. PhD dissertation. Groningen, The Netherlands: University of Groningen; 1971.</RefTotal>
      </Reference>
      <Reference refNo="59">
        <RefAuthor>Wilkinson TJ</RefAuthor>
        <RefAuthor>Frampton CM</RefAuthor>
        <RefAuthor>Thompson-Fawcett M</RefAuthor>
        <RefAuthor>Egan T</RefAuthor>
        <RefTitle>Objectivity in objective structured clinical examinations: checklists are no substitute for examiner commitment</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>219-223</RefPage>
        <RefTotal>Wilkinson TJ, Frampton CM, Thompson-Fawcett M, Egan T. Objectivity in objective structured clinical examinations: checklists are no substitute for examiner commitment. Acad Med. 2003;78:219-223.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>3</MediaNo>
          <MediaID>3</MediaID>
          <Caption>
<Pgraph>
<Mark1>Tabelle 3: Prüfungsstationen des OSCE der Medizinischen Universitätsklinik Heidelberg Wintersemester 2004/2005: Bestehensgrenze nach Standard Setting, durchschnittliche erreichte Punktzahl, Standardabweichung, Trennschärfe und korrigierte Trennschärfe (n=143).</Mark1>
</Pgraph>
</Caption>
        </Table>
        <Table format="png">
          <MediaNo>4</MediaNo>
          <MediaID>4</MediaID>
          <Caption>
<Pgraph>
<Mark1>Tabelle 4: Daten zur Notenvergabe OSCE Wintersemester 2004/2005 (n=143)</Mark1>
</Pgraph>
</Caption>
        </Table>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption>
<Pgraph>
<Mark1>Tabelle 1: Prüfungsstationen des OSCE der Medizinischen Universitätsklinik Heidelberg Wintersemester 2004/2005: Blueprint (vereinfachtes Beispiel)</Mark1>
</Pgraph>
</Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption>
<Pgraph>
<Mark1>Tabelle 2: Formen des Standard-Setting</Mark1>
</Pgraph>
</Caption>
        </Table>
        <NoOfTables>4</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="798" height="536" format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption>
<Pgraph>
<Mark1>Abbildung 1: Checklisten-Rating (CR) / Globales Rating (GR) (vereinfachte Beispiele)</Mark1>
</Pgraph>
</Caption>
        </Figure>
        <Figure width="679" height="841" format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption>
<Pgraph>
<Mark1>Abbildung 2: Checklistenformat an der Medizinischen Universitätsklinik Heidelberg (aus: Jünger und Nikendei, 2005 [26])</Mark1>
</Pgraph>
</Caption>
        </Figure>
        <Figure width="601" height="380" format="png">
          <MediaNo>3</MediaNo>
          <MediaID>3</MediaID>
          <Caption>
<Pgraph>
<Mark1>Abbildung 3: Empfehlung</Mark1>
</Pgraph>
</Caption>
        </Figure>
        <NoOfPictures>3</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>
