<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001286</Identifier>
    <IdentifierDoi>10.3205/zma001286</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0012867</IdentifierUrn>
    <ArticleType language="en">article</ArticleType>
    <ArticleType language="de">Artikel</ArticleType>
    <TitleGroup>
      <Title language="en">Assessment methods in medical specialist assessments in the DACH region &#8211; overview, critical examination and recommendations for further development</Title>
      <TitleTranslated language="de">Pr&#252;fungsmethoden in Facharztpr&#252;fungen der DACH-Region &#8211; &#220;bersicht, kritische Betrachtung und Empfehlungen zur Weiterentwicklung</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Thiessen</Lastname>
          <LastnameHeading>Thiessen</LastnameHeading>
          <Firstname>Nils</Firstname>
          <Initials>N</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME</AcademicTitleSuffix>
        </PersonNames>
        <Address language="en">EDU - a degree smarter, Digital Education Holdings Ltd., Villa Bighi, Chaplain&#39;s House, Kalkara KKR 1320, Republic of Malta<Affiliation>EDU - a degree smarter, Digital Education Holdings Ltd., Kalkara, Republic of Malta</Affiliation></Address>
        <Address language="de">EDU - a degree smarter, Digital Education Holdings Ltd., Villa Bighi, Chaplain&#39;s House, Kalkara KKR 1320, Republik Malta<Affiliation>EDU - a degree smarter, Digital Education Holdings Ltd., Kalkara, Republik Malta</Affiliation></Address>
        <Email>nils.thiessen&#64;edu.edu.mt</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Fischer</Lastname>
          <LastnameHeading>Fischer</LastnameHeading>
          <Firstname>Martin R.</Firstname>
          <Initials>MR</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>LMU M&#252;nchen, Klinikum der Universit&#228;t M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>LMU M&#252;nchen, Klinikum der Universit&#228;t M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Deutschland</Affiliation>
        </Address>
        <Email>martin.fischer&#64;med.uni-muenchen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Huwendiek</Lastname>
          <LastnameHeading>Huwendiek</LastnameHeading>
          <Firstname>S&#246;ren</Firstname>
          <Initials>S</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Bern, Schweiz</Affiliation>
        </Address>
        <Email>soerren.huwendiek&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">medical specialist assessment</Keyword>
      <Keyword language="en">DACH region</Keyword>
      <Keyword language="en">cognitive, practical and communicative competencies</Keyword>
      <Keyword language="de">Facharztpr&#252;fungen</Keyword>
      <Keyword language="de">DACH-Region</Keyword>
      <Keyword language="de">kognitive, praktische und kommunikative Kompetenzen</Keyword>
      <SectionHeading language="en">Assessment Methods</SectionHeading>
      <SectionHeading language="de">Pr&#252;fungsmethoden</SectionHeading>
    </SubjectGroup>
    <DateReceived>20180729</DateReceived>
    <DateRevised>20190729</DateRevised>
    <DateAccepted>20190904</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20191115</DatePublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>36</Volume>
        <Issue>6</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>78</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Einleitung: </Mark1>Facharztpr&#252;fungen in der Medizin haben die Aufgabe, sicherzustellen, dass &#196;rzte &#252;ber die klinischen Kompetenzen verf&#252;gen, um ihr Fach eigenverantwortlich zu vertreten und Patienten eigenst&#228;ndig und bestm&#246;glich nach dem aktuellen Stand des Wissens zu versorgen. Bisher gibt es zum Stand der Facharztpr&#252;fungen im deutschsprachigen Raum (DACH) keine umfassenden Darstellungen. Deshalb werden in diesem Artikel die zum Einsatz kommenden Pr&#252;fungsmethoden in der DACH-Region zusammengestellt, kritisch bewertet und Empfehlungen zur Weiterentwicklung beschrieben. </Pgraph><Pgraph><Mark1>Methoden: </Mark1>Die Internetseiten der folgenden Institutionen wurden nach Informationen in Bezug auf die eingesetzten Pr&#252;fungsmethoden und die Organisation der Facharztpr&#252;fungen durchsucht: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Homepage des Schweizerischen Instituts f&#252;r &#228;rztliche Weiter- und Fortbildung (SIWF), </ListItem><ListItem level="1" levelPosition="2" numString="2.">Homepage der Akademie der &#196;rzte (&#214;sterreich), </ListItem><ListItem level="1" levelPosition="3" numString="3.">Homepage der deutschen Bundes&#228;rztekammer (BAEK). </ListItem></OrderedList></Pgraph><Pgraph>Weiterf&#252;hrende Links wurden ber&#252;cksichtigt und die erhaltenen Ergebnisse tabellarisch dargestellt. Die in den Facharztpr&#252;fungen eingesetzten Pr&#252;fungsmethoden werden hinsichtlich etablierter Qualit&#228;tskriterien kritisch betrachtet und daraus Empfehlungen zur Weiterentwicklung der Facharztpr&#252;fungen abgeleitet. </Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> In der Schweiz und in &#214;sterreich kommen bereits folgende Pr&#252;fungsmethoden zum Einsatz:  schriftliche Pr&#252;fungen mit Multiple Choice und Kurzantwort-Fragen, strukturierte m&#252;ndliche Pr&#252;fungen, der Script Concordance Test (SCT) und die Objective Structured Clinical Examination (OSCE). Teilweise werden diese Pr&#252;fungsmethoden miteinander kombiniert (Triangulation). In Deutschland wird dagegen bisher unstrukturiert m&#252;ndlich in Form eines &#34;kollegialen Fachgespr&#228;chs&#34; gepr&#252;ft. Damit Wissen, praktische und kommunikative Kompetenzen gleicherma&#223;en &#252;berpr&#252;ft werden k&#246;nnen, werden die Methoden-Triangulation und die Beachtung der in diesem Beitrag beschriebenen weiteren Empfehlungen nahegelegt.</Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>W&#228;hrend es in der Schweiz sowie in &#214;sterreich bereits gute Ans&#228;tze f&#252;r qualit&#228;tsgesicherte und kompetenzbasierte Facharztpr&#252;fungen gibt, ist man in Deutschland noch davon entfernt. Mit den in diesem Artikel vorgestellten Empfehlungen, k&#246;nnte ein Beitrag dazu geleistet werden, die Facharztpr&#252;fungen in der DACH-Region ihren Zielen gem&#228;&#223; zu verbessern. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Introduction: </Mark1>Specialist medical assessments fulfil the task of ensuring that physicians have the clinical competence to independently represent their field and provide the best possible care to patients, taking into account the current state of knowledge. To date, there are no comprehensive reports on the status of specialist assessments in the German-speaking countries (DACH). For that reason, the assessment methods used in the DACH region are compiled and critically evaluated in this article, and recommendations for further development are described.</Pgraph><Pgraph><Mark1>Methods: </Mark1>The websites of the following institutions were searched for information regarding testing methods used and the organisation of specialist examinations: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Homepage of the Swiss Institute for Medical Continuing Education (SIWF), </ListItem><ListItem level="1" levelPosition="2" numString="2.">Homepage of the Academy of Physicians (Austria) and </ListItem><ListItem level="1" levelPosition="3" numString="3.">Homepage of the German Federal Medical Association (BAEK). </ListItem></OrderedList></Pgraph><Pgraph>Further links were considered and the results were presented in tabular form. The assessment methods used in the specialist assessments are critically examined with regard to established quality criteria and recommendations for the further development of the specialist assessments are derived from these.</Pgraph><Pgraph><Mark1>Results:</Mark1> The following assessment methods are already used in Switzerland and Austria: written examinations with multiple choice and short answer questions, structured oral examinations, the Script Concordance Test (SCT) and the Objective Structured Clinical Examination (OSCE). In some cases, these assessment methods are combined (triangulation). In Germany, on the other hand, the oral examination has so far been conducted in an unstructured manner in the form of a &#8216;collegial content discussion&#8217;. In order to test knowledge, practical and communicative competences equally, it is recommended to implement a triangulation of methods and follow the further recommendations described in this article.</Pgraph><Pgraph><Mark1>Conclusion:</Mark1> While there are already accepted approaches for quality-assured and competence-based specialist assessments in Switzerland and Austria at present, there is still a long way to go in Germany. Following the recommendations presented in this article, a contribution could be made to improving the specialist assessments in the DACH region according to the specialist assessments objectives.</Pgraph></Abstract>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>Assessments fulfil a wide range of important tasks: they have a strong effect on learning, they can be used to provide feedback on the effectiveness of education and training programmes and, consequently, they can help protect patients <TextLink reference="1"></TextLink>. Until the middle of the twentieth century, medical assessments were mainly written in the form of essays or oral assessments <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. At that time, evaluations derived from assessments often turned out to be subjective, arbitrary and non-reproducible <TextLink reference="1"></TextLink>. Subsequently, standardised tests such as multiple-choice examinations (MC examinations) or Objective Structured Clinical Examinations (OSCE) <TextLink reference="3"></TextLink> were developed (Case &#38; Swanson 1996, Norcini &#38; Burch 2007, Kogan et al. 2009, cited after Norcini <TextLink reference="1"></TextLink>). Tests should be objective, reproducible (reliable) and valid. Furthermore, they should be accepted by test takers and examiners, have a learning-promoting component and be as cost-efficient as possible <TextLink reference="4"></TextLink>. &#8220;Objectivity&#8221; means that the test should be as independent as possible from the examiner as a person &#8211; their attitudes, feelings and motives. It refers to the performance, evaluation and interpretation of a test <TextLink reference="5"></TextLink>. A test should provide approximately the same result when repeated; in other words it should be &#8220;reliable&#8221;. Reliability is a measure of the trustworthiness of a test. Reliability is represented as a coefficient ranging from 0 (no reliability) to 1 (perfect reliability). The value 0.80 is often set as the minimum standard for a significant high stakes test <TextLink reference="6"></TextLink>. Among other things, a test is &#8220;valid&#8221; if it measures what it claims to measure. It is thus a measure of the measurement accuracy of a test <TextLink reference="5"></TextLink>. It would be desirable for all valid tests to be compared to an external standard, but one is often not available in practice. In this case, expert assessments are often used for validation. In medical education, constructs are mainly used &#8211; in other words, abstract concepts and principles derived from behaviour and explained by pedagogical and psychological theories <TextLink reference="7"></TextLink>. This fact is represented by the concept of &#8220;construct validity&#8221;. </Pgraph><Pgraph>Society relies on tests that ensure that patients can place themselves in the care of competent and qualified physicians who have reached a minimum standard <TextLink reference="1"></TextLink>. According to Premi, specialist examinations should ensure that colleagues who have passed this assessment have acquired the knowledge and necessary skills of their specialist group and can apply them independently (Premi 1994, quoted from Ratnapalan &#38; Hilliard <TextLink reference="8"></TextLink>. Examinations that demonstrate the necessary knowledge, skills and attitudes for the pursuit of a profession are part of self-regulation in continuing medical education. This is viewed with increasing scepticism worldwide, especially against the background that training to become a physician is a very expensive affair and is often financed by the public purse <TextLink reference="9"></TextLink>. For this reason, governments in Australia, Great Britain and Canada are directly entrusted with regulating continuing medical education (Chantler &#38; Ashton 2009, Shaw et al. 2009, Medicare Advisory Commission 2009, cited after Holmboe <TextLink reference="9"></TextLink>).   </Pgraph><Pgraph>The official training regulations for postgraduate medical doctors, which were developed by the BAEK, have the character of a recommendation. Completion of the specialist training is assessed on the basis of documented competences, issued by the respective physician in charge, and an oral examination. According to the BAEK, this &#8220;certificate of further training&#8221; is proof of the acquired competence and serves as quality assurance for patient care and citizen orientation. The term &#8216;competence&#8217; is not specified here <TextLink reference="10"></TextLink>. </Pgraph><Pgraph>In Switzerland, the FMH (Foederatio Medicorum Helveticorum) is the professional association of Swiss physicians. It is the umbrella organisation of more than 70 doctors&#39; organisations. The Swiss Institute for Medical Continuing Education (SIWF) is an autonomous body of the FMH and ensures high-quality continuing education for doctors in over 120 specialist areas. In cooperation with the professional associations, the SIWF issues a detailed further training programme &#91;<Hyperlink href="https:&#47;&#47;www.siwf.ch&#47;">https:&#47;&#47;www.siwf.ch&#47;</Hyperlink>&#93; for each specialist area. </Pgraph><Pgraph>The Austrian Medical Association (&#214;&#196;K) grants the right to practise as employed, self-employed and self-reliant physicians. The &#214;&#196;K has entrusted the &#8216;Austrian Academy for Physicians GmbH &#91;<Hyperlink href="https:&#47;&#47;www.aerztekammer.at&#47;">https:&#47;&#47;www.aerztekammer.at&#47;</Hyperlink>&#93; with the implementation of the medical examination as a prerequisite for the pursuit of a medical profession. The training contents and the corresponding certificates for the acquisition of a specialist title have been drawn up and specified by the &#214;&#196;K &#91;<Hyperlink href="https:&#47;&#47;www.aerztekammer.at&#47;ausbildungsinhalte-und-rasterzeugnisse-kef-und-rz-v-2015">https:&#47;&#47;www.aerztekammer.at&#47;ausbildungsinhalte-und-rasterzeugnisse-kef-und-rz-v-2015</Hyperlink>&#93;.</Pgraph><Pgraph>Over the last few years, competence orientation has increasingly come to the fore in medical education and postgraduate medical education. This is with the aim of ensuring that graduates master the challenges of practical work and possess all the necessary skills <TextLink reference="11"></TextLink>. The physician competency framework &#8220;Canadian Medical Education Directives for Specialists&#8221; (CanMEDS) was developed by Frank et al. to guarantee comprehensive postgraduate training for physician <TextLink reference="12"></TextLink>. On the basis of a systematic literature analysis and broad-based expert and stakeholder surveys, seven medical roles were defined by Frank et al. <TextLink reference="11"></TextLink> to establish CanMEDS and integrate it into all of Canada&#8217;s continuing education programmes <TextLink reference="13"></TextLink>:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Medical Expert</ListItem><ListItem level="1" levelPosition="2" numString="2.">Communicator</ListItem><ListItem level="1" levelPosition="3" numString="3.">Collaborator</ListItem><ListItem level="1" levelPosition="4" numString="4.">Leader</ListItem><ListItem level="1" levelPosition="5" numString="5.">Health Advocate</ListItem><ListItem level="1" levelPosition="6" numString="6.">Scholar</ListItem><ListItem level="1" levelPosition="7" numString="7.">Professional</ListItem></OrderedList></Pgraph><Pgraph>Numerous key competencies are assigned to these roles. The CanMEDS role model has already been integrated into national learning objective catalogues for medical studies in Europe (Netherlands (Laan 2010, quoted from Jilg) <TextLink reference="13"></TextLink>, Switzerland <TextLink reference="14"></TextLink>, Germany &#91;<Hyperlink href="http:&#47;&#47;www.nklm.de">http:&#47;&#47;www.nklm.de</Hyperlink>&#93;). Not only should medical teaching be competence-oriented, but also any successive further education. This includes a competence-oriented examination of knowledge, skills and attitudes.</Pgraph><Pgraph>To date, there exists no compilation of the extent to which the specialist assessments of the DACH region are competence-based and whether the quality criteria previously mentioned, such as objectivity and reliability, are taken into account. The aim of this work is therefore to provide an overview of the existing summative specialist assessment formats in the DACH region and their organisation, to take a critical look at the formats with regard to quality criteria and to make recommendations on the basis of the international literature. As a first step, this compilation should make the current situation better known and highlight possible directions for the further development of specialist assessments in the DACH region.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Pr&#252;fungen haben eine ganze Reihe von wichtigen Aufgaben: Sie besitzen einen stark lernsteigernden Effekt, geben R&#252;ckmeldungen &#252;ber die Wirksamkeit von Aus- und Weiterbildungsprogrammen und sch&#252;tzen den Patienten <TextLink reference="1"></TextLink>. Bis Mitte des zwanzigsten Jahrhunderts wurde in der Medizin vornehmlich schriftlich in Form von Aufs&#228;tzen oder m&#252;ndlich gepr&#252;ft <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. Aus Pr&#252;fungen abgeleitete Bewertungen stellten sich damals h&#228;ufig als subjektiv, willk&#252;rlich und nicht reproduzierbar heraus <TextLink reference="1"></TextLink>. Nachfolgend wurden standardisierte Tests wie Multiple Choice Pr&#252;fungen (MC-Pr&#252;fungen) oder auch Objective Structured Clinical Examinations (OSCE) <TextLink reference="3"></TextLink> entwickelt (Case &#38; Swanson 1996, Norcini &#38; Burch 2007, Kogan et al. 2009, zitiert nach Norcini <TextLink reference="1"></TextLink>). Pr&#252;fungen sollen objektiv, reproduzierbar (reliabel) und valide (g&#252;ltig) sein. Ferner sollen sie akzeptiert durch Pr&#252;flinge und Pr&#252;fer sein, eine lernf&#246;rdernde Komponente haben und m&#246;glichst kosteneffizient sein <TextLink reference="4"></TextLink>. Mit Objektivit&#228;t ist gemeint, dass die Pr&#252;fung von der Person des Pr&#252;fers, von seinen Einstellungen, Gef&#252;hlen und Motiven m&#246;glichst unabh&#228;ngig sein soll. Sie bezieht sich auf die Durchf&#252;hrung, Auswertung und die Interpretation einer Pr&#252;fung <TextLink reference="5"></TextLink>. Eine Pr&#252;fung soll bei Wiederholung ann&#228;hernd das gleiche Ergebnis liefern, also reliabel sein. Die Reliabilit&#228;t ist ein Ma&#223; f&#252;r die Zuverl&#228;ssigkeit einer Pr&#252;fung. Die Reliabilit&#228;t wird als Koeffizient von 0 (keine Reliabilit&#228;t) bis 1 (perfekte Reliabilit&#228;t) dargestellt. Der Wert 0.80 wird h&#228;ufig als minimaler Standard f&#252;r eine bedeutende sog. &#8222;high stakes&#8220; Pr&#252;fung festgelegt <TextLink reference="6"></TextLink>. Eine Pr&#252;fung ist u.a. valide, wenn sie das misst, was sie zu messen vorgibt. Sie ist somit ein Ma&#223; f&#252;r die Messgenauigkeit eines Tests <TextLink reference="5"></TextLink>. Ein externer Standard zum Vergleich des Pr&#252;fungsergebnisses mit diesem Standard w&#228;re f&#252;r valide Pr&#252;fungen w&#252;nschenswert, ist aber in der Praxis h&#228;ufig nicht verf&#252;gbar. Dann dienen h&#228;ufig Experteneinsch&#228;tzungen f&#252;r eine Validierung. In der medizinischen Lehre kommen vor allem Konstrukte zur Anwendung, also abstrakte Konzepte und Prinzipien, die aus Verhalten abgeleitet und durch p&#228;dagogische und psychologische Theorien erkl&#228;rt werden <TextLink reference="7"></TextLink>. Dieser Sachverhalt wird durch den Begriff der Konstruktvalidit&#228;t wiedergegeben. </Pgraph><Pgraph>Die Gesellschaft vertraut auf Pr&#252;fungen, die gew&#228;hrleisten, dass Patienten sich in die Obhut von kompetenten und qualifizierten Medizinern geben k&#246;nnen, die einen Mindeststandard erreicht haben <TextLink reference="1"></TextLink>. Nach Premi sollen Facharztpr&#252;fungen sicherstellen, dass Kollegen, die diese Pr&#252;fung abgelegt haben, das Wissen und die notwendigen Fertigkeiten ihrer Fachgruppe erworben haben und eigenst&#228;ndig anwenden k&#246;nnen (Premi 1994, zitiert nach Ratnapalan &#38; Hilliard <TextLink reference="8"></TextLink>). Pr&#252;fungen, die das notwendige Wissen sowie die notwendigen Fertigkeiten und Haltungen zur Berufsaus&#252;bung nachweisen, sind Teil der Selbstregulierung in der medizinischen Weiterbildung. Dies wird weltweit mit zunehmender Skepsis bewertet, erst recht vor dem Hintergrund, dass die Ausbildung zum Arzt eine sehr teure Angelegenheit ist und h&#228;ufig aus &#246;ffentlicher Hand finanziert wird <TextLink reference="9"></TextLink>. In Australien, Gro&#223;britannien und Canada sind aus diesem Grund die Regierungen direkt mit der Regulierung der medizinischen Weiterbildung betraut (Chantler &#38; Ashton 2009, Shaw et al. 2009, Medicare Advisory Commission 2009, zitiert nach Holmboe <TextLink reference="9"></TextLink>).   </Pgraph><Pgraph>Die Musterweiterbildungsordnung, die von der BAEK entwickelt wurde, hat empfehlenden Charakter in Bezug auf die Weiterbildung eines Arztes. Der Abschluss der zu dokumentierenden Weiterbildung wird auf Grund der von den Weiterbildungsbefugten erstellten Zeugnisse und einer Pr&#252;fung beurteilt. Laut Angaben der BAEK stellt die Weiterbildungsbezeichnung den Nachweis f&#252;r die erworbene Kompetenz dar und dient als Qualit&#228;tssicherung der Patientenversorgung und der B&#252;rgerorientierung. Der Begriff der Kompetenz wird hierbei nicht n&#228;her spezifiziert <TextLink reference="10"></TextLink>. </Pgraph><Pgraph>In der Schweiz ist die FMH (Foederatio Medicorum Helveticorum) der Berufsverband der Schweizer &#196;rztinnen und &#196;rzte. Sie ist Dachverband von &#252;ber 70 &#196;rzteorganisation. Das Schweizerische Institut f&#252;r &#228;rztliche Weiter-und Fortbildung (SIWF) ist ein autonomes Organ der FMH und stellt f&#252;r &#252;ber 120 Fachgebiete eine qualitativ hochwertige Weiter- und Fortbildung der &#196;rztinnen und &#196;rzte sicher. In Zusammenarbeit mit den Fachgesellschaften erl&#228;sst das SIWF f&#252;r jedes Fachgebiet ein detailliertes Weiterbildungs- bzw. Fortbildungsprogramm <Hyperlink href="https:&#47;&#47;www.siwf.ch&#47;">https:&#47;&#47;www.siwf.ch&#47;</Hyperlink>&#93;. </Pgraph><Pgraph>Die &#246;sterreichische &#196;rztekammer (&#214;&#196;K) verleiht die Berechtigung zur unselbstst&#228;ndigen sowie zur selbstst&#228;ndigen und eigenverantwortlichen &#228;rztlichen Berufsaus&#252;bung. F&#252;r die Durchf&#252;hrung der Arztpr&#252;fung als Voraussetzung f&#252;r die &#228;rztliche Berufsaus&#252;bung, hat die &#214;&#196;K die &#214;sterreichische Akademie f&#252;r &#196;rzte GmbH betraut &#91;<Hyperlink href="https:&#47;&#47;www.aerztekammer.at&#47;">https:&#47;&#47;www.aerztekammer.at&#47;</Hyperlink>&#93;. Die Ausbildungsinhalte und die dazugeh&#246;rigen Zeugnisse zum Erwerb eines Facharzttitels sind von der &#214;&#196;K erstellt und vorgegeben &#91;<Hyperlink href="https:&#47;&#47;www.aerztekammer.at&#47;ausbildungsinhalte-und-rasterzeugnisse-kef-und-rz-v-2015">https:&#47;&#47;www.aerztekammer.at&#47;ausbildungsinhalte-und-rasterzeugnisse-kef-und-rz-v-2015</Hyperlink>&#93;. </Pgraph><Pgraph>Die Kompetenzorientierung r&#252;ckt in der Aus- und Weiterbildung in der Medizin seit einigen Jahren immer mehr in den Vordergrund, dies mit dem Ziel, zu gew&#228;hrleisten, dass Absolventen die Herausforderungen der praktischen T&#228;tigkeit meistern und alle hierf&#252;r notwendigen Kompetenzen  besitzen <TextLink reference="11"></TextLink>.</Pgraph><Pgraph>Das Rollenmodell &#8222;Canadian Medical Education Directives for Specialists&#8220; (CanMEDS) wurde von Frank et al. entwickelt, um eine umfassende Weiterbildung von &#196;rzten zu gew&#228;hrleisten <TextLink reference="12"></TextLink>. Auf der Basis einer systematischen Literaturanalyse sowie breit angelegter Experten- und Stakeholder-Befragungen wurden zur Etablierung des CanMEDS Rahmenmodells durch Frank et al. <TextLink reference="11"></TextLink> sieben &#228;rztliche Rollen definiert und in alle Weiterbildungsprogramme Kanadas integriert <TextLink reference="12"></TextLink>:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Medical Expert,</ListItem><ListItem level="1" levelPosition="2" numString="2.">Communicator,</ListItem><ListItem level="1" levelPosition="3" numString="3.">Collaborator,</ListItem><ListItem level="1" levelPosition="4" numString="4.">Leader,</ListItem><ListItem level="1" levelPosition="5" numString="5.">Health Advocate,</ListItem><ListItem level="1" levelPosition="6" numString="6.">Scholar,</ListItem><ListItem level="1" levelPosition="7" numString="7.">Professional.</ListItem></OrderedList></Pgraph><Pgraph>Diesen Rollen sind zahlreiche Schl&#252;sselkompetenzen zugeordnet. Das CanMEDS Rollenmodell wurde in Europa bereits in nationalen Lernzielkatalogen f&#252;r das Medizinstudium integriert (Niederlande (Laan 2010, zitiert nach Jilg) <TextLink reference="13"></TextLink>, Schweiz <TextLink reference="14"></TextLink>, Deutschland &#91;<Hyperlink href="http:&#47;&#47;www.nklm.de">http:&#47;&#47;www.nklm.de</Hyperlink>&#93;). Nicht nur die medizinische Lehre sollte kompetenzorientiert unterrichtet werden, sondern auch konsekutiv die Weiterbildung. Hierzu geh&#246;rt unabdingbar auch eine kompetenzorientierte &#220;berpr&#252;fung des Wissens, der Fertigkeiten und der Haltungen. </Pgraph><Pgraph>Bisher gibt es keine Zusammenstellung dazu, inwiefern die Facharztpr&#252;fungen der DACH-Region kompetenzbasiert gestaltet sind und die anderen genannten Qualit&#228;tskriterien f&#252;r Pr&#252;fungen wie Objektivit&#228;t und Reliabilit&#228;t Ber&#252;cksichtigung finden. Ziel dieser Arbeit ist es deshalb, eine &#220;bersicht existierender summativ eingesetzter Facharzt-Pr&#252;fungsformate in der DACH-Region und deren Organisation zu erstellen, die Formate kritisch bez&#252;glich Qualit&#228;tskriterien zu betrachten und Empfehlungen anhand der internationalen Literatur zu geben. Diese Zusammenstellung soll als ersten Schritt den aktuellen Stand bekannter machen und m&#246;gliche Richtungen f&#252;r die Weiterentwicklung von Facharztpr&#252;fungen in der DACH-Region aufzeigen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods">
      <MainHeadline>Methods</MainHeadline><Pgraph>The following homepages were searched for references to existing assessment formats and the organisation of specialist assessments:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Homepage of the Swiss Institute for Medical Education and Training &#91;<Hyperlink href="https:&#47;&#47;www.siwf.ch&#47;">https:&#47;&#47;www.siwf.ch&#47;</Hyperlink>&#93; </ListItem><ListItem level="1" levelPosition="2" numString="2.">Homepage of the Austrian Academy of Physicians &#91;<Hyperlink href="https:&#47;&#47;www.aerztekammer.at&#47;">https:&#47;&#47;www.aerztekammer.at&#47;</Hyperlink>&#93;</ListItem><ListItem level="1" levelPosition="3" numString="3.">Homepage of the German Federal Medical Association <TextLink reference="10"></TextLink></ListItem></OrderedList></Pgraph><Pgraph>Using the websites of these national umbrella organisations, the contents of the homepages of professional associations or regional chambers of physicians were evaluated. These provided further information on the examination formats currently used. The quality of the Internet research therefore depends on the information and data listed there. A review of the individual annual reports of the State Medical Associations provided, as far as available, an overview of the number of examinations carried out in one year and the corresponding failure rates. Further key statistical figures or costs were not provided. </Pgraph><Pgraph>Furthermore, the test methods used were critically evaluated with regard to the quality criteria of the tests (validity, reliability, objectivity, acceptance, cost efficiency and influence on learning). In addition, criteria for best practice specialist assessments were derived from the literature.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methoden">
      <MainHeadline>Methoden</MainHeadline><Pgraph>Folgende Homepages wurden auf Hinweise bestehender Pr&#252;fungsformate und die Organisation der Facharztpr&#252;fungen durchsucht:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Homepage der Schweizerischen Instituts f&#252;r &#228;rztliche Weiter- und Fortbildung &#91;<Hyperlink href="https:&#47;&#47;www.siwf.ch&#47;">https:&#47;&#47;www.siwf.ch&#47;</Hyperlink>&#93; </ListItem><ListItem level="1" levelPosition="2" numString="2.">Homepage der &#214;sterreichischen Akademie der &#196;rzte &#91;<Hyperlink href="https:&#47;&#47;www.aerztekammer.at&#47;">https:&#47;&#47;www.aerztekammer.at&#47;</Hyperlink>&#93; </ListItem><ListItem level="1" levelPosition="3" numString="3.">Homepage der deutschen Bundes&#228;rztekammer <TextLink reference="10"></TextLink></ListItem></OrderedList></Pgraph><Pgraph>Ausgehend von den Webseiten dieser nationalen Dachorganisationen, wurden die Inhalte der Homepages von Fachgesellschaften oder Landes&#228;rztekammern, die weiteren Aufschluss &#252;ber die aktuell eingesetzten Pr&#252;fungsformate lieferten, ausgewertet. Die G&#252;te der Internetrecherche ist daher abh&#228;ngig von den dort gelisteten Informationen und Daten.</Pgraph><Pgraph>Die Durchsicht der einzelnen Gesch&#228;ftsberichte der Landes&#228;rztekammern ergab, soweit verf&#252;gbar, einen &#220;berblick &#252;ber die Anzahl der durchgef&#252;hrten Pr&#252;fungen eines Jahres und den entsprechenden Durchfallquoten. Dar&#252;berhinausgehende statistische Kennzahlen oder Kosten wurden nicht zur Verf&#252;gung gestellt. </Pgraph><Pgraph>Weiterhin wurden die eingesetzten Pr&#252;fungsmethoden zu Qualit&#228;tskriterien (Validit&#228;t, Reliabilit&#228;t, Objektivit&#228;t, Akzeptanz, Kosteneffizienz und Einfluss auf das Lernen) von Pr&#252;fungen kritisch anhand der international vorliegenden Literatur bewertet und Kriterien f&#252;r Best Practice Facharztpr&#252;fungen aus der Literatur abgeleitet. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><SubHeadline2>Overview of the assessment formats used in the DACH region</SubHeadline2><SubHeadline3>Switzerland</SubHeadline3><Pgraph>In Switzerland, Multiple Choice (MC) examinations are used in 26 of 46 subject areas. The number of questions varies between 50 and 200. The minimum exam duration is 120 minutes; the maximum is 360 minutes. The specialist areas of Anaesthesiology, Allergology&#47;Immunology, Cardiology and Vascular Surgery are examined in conjunction with the European Union of Medical Specialists (UEMS). The following types of questions are used in Switzerland, although there is a clear variance in their occurrence within the specialist areas: type A positive, type A negative, type Kprim, type B, type E, type R, and type Pick N are used as MC formats. Short Answer Questions (SAQ) and Script Concordance Tests (SCT) are also used. Swanson and Case <TextLink reference="15"></TextLink> provide a good introduction to this, including examples for the different question types. In the field of Psychiatry&#47;Psychotherapy, candidates must submit a written paper in part 2 and take part in a colloquium. In Radiology, for example, open text formats are used, but they are not explained in detail. Here the diagnosis of cases is in the foreground and a web-based examination tool is used. In addition to the written format, there are also oral assessments in Switzerland, including discussion of a paper, presentation of a patient case, holding a colloquium and structured oral assessments (SMP). The duration of these varies from 20 minutes to 180 minutes. Some subjects, e.g. Endocrinology&#47;Diabetology, combine a written examination with an oral examination. In 23 subject areas, i.e. 50&#37; of the specialist assessments in Switzerland, assessments with a practical component take place. In the fields of Oto-Rhino-Laryngology and Thoracic Surgery, for example, practical examinations are held as part of an operation. Rheumatology carries out an OSCE comprising 9 stations, with 10 minutes available per station. It is not only knowledge (Anatomy, Pathophysiology etc.), but also practical skills (examination techniques), as well as communicative skills, that are tested in a standardised way. In 2017, the SIWF awarded 1428 medical specialist titles <TextLink reference="16"></TextLink> and, in 2018, 1434 medical specialist titles <TextLink reference="17"></TextLink>. The SIWF does not publish a failure rate in its annual report.</Pgraph><SubHeadline3>Austria</SubHeadline3><Pgraph>14 of 57 tests are performed with MC questions. The minimum number of questions is 50 and they can reach up to 200 questions, which have to be answered in the field of skin and venereal diseases. The candidates have 60 to 300 minutes at their disposal. Anaesthesiology and Urology are affiliated to the European specialist examination. The Pathology and Radiology departments use tests with short answer questions, which last from 80 to 240 minutes. In Austria, 45 subject areas are examined orally on the basis of structured oral examinations (the use of a so-called &#8220;blueprint&#8221;: pre-formulated questions and a horizon of expectation). In this context, the term &#8220;blueprint&#8221; refers to a weighted assessment plan in which the selection of relevant examination content ensures that each candidate is treated equally in terms of that content. For most subjects, a blueprint is created and explicitly mentioned in the exam description. The duration of the examination can vary between 40 and 120 minutes. Some subjects are examined both in writing and orally. There are currently no clinical-practical examinations in Austria. We do not have statistics on the number of tests carried out in Austria per year and the corresponding failure rates.</Pgraph><SubHeadline3>Germany</SubHeadline3><Pgraph>The specialist assessment is held at all regional medical associations in the form of an unstructured oral examination (UMP), which lasts at least 30 minutes and can last up to 60 minutes. This type of examination is used for all medical specialist qualifications and is also referred to as a &#8220;collegial expert discussion&#8221;. The number of examiners may vary and at least one examiner must be from the field to be examined. The examination results must be documented. Typically, a structured blueprint is not prepared and the questions are not pre-formulated in advance (in the sense of a standardised and structured examination and a specified expectation horizon). The Landes&#228;rztekammer Hamburg is an exception: here, the questions are handed over in advance to the chairman of the examination. Table 1 <ImgLink imgNo="1" imgType="table"/> shows the number of specialist examinations and the associated failure rates. The data were taken from the annual reports of the respective regional medical associations for the year 2017, which were available online. An inquiry to the BAEK regarding comprehensive, nationwide statistics revealed that such statistics were not available. </Pgraph><SubHeadline2>Critical appraisal of the tests used in the DACH region</SubHeadline2><SubHeadline3>MC exams</SubHeadline3><Pgraph>MC examinations are widely used in medicine as an assessment method because they can be cost-efficient and can offer high validity and reliability for testing knowledge (Norcini 1985, cited after Gerhard-Szep <TextLink reference="18"></TextLink>. This presupposes, however, that a sufficient number (at least 40) of high-quality questions (in content and form) are used per test (J&#252;nger 2014, cited after Gerhard-Szep <TextLink reference="18"></TextLink>). Case et al. emphasise that two criteria are necessary to develop a good question: the question must both examine relevant content and be well structured <TextLink reference="15"></TextLink>. The development of MC questions at a qualitatively high level is time-consuming. With written examination methods it is above all possible to test factual knowledge. In contrast to an OSCE, it is not possible to test communicative and practical skills, or competences, using MC questions <TextLink reference="19"></TextLink>.</Pgraph><SubHeadline3>Short answer questions</SubHeadline3><Pgraph>For short answer questions, freely formulated, short, keyword-like answers must be given. Test takers must spontaneously think of the correct solution and cannot react to given answers <TextLink reference="5"></TextLink>. This reduces the so-called &#8220;cueing&#8221; that gives candidates the opportunity to answer a question correctly without knowledge (Schuwirth 2004, cited from Epstein <TextLink reference="20"></TextLink>). Ideally, &#8220;context-rich&#8221; question strains (case vignettes) are also offered here, which make it possible to test application knowledge and, for example, &#8220;clinical reasoning&#8221;. Reliability also depends to a large extent on the quality of evaluations carried out by the examiners <TextLink reference="20"></TextLink> &#8211; in this case, training the examiners in advance can help. The evaluation is more susceptible to subjective distortions than with MC questions. Pre-formulated expectation horizons, to which the evaluators must orient themselves, can increase objectivity and should be available. Acceptable reliability values can be achieved by using several testers, each of whom is responsible for evaluating different tasks <TextLink reference="5"></TextLink>. Rademakers et al. <TextLink reference="21"></TextLink> provide a clear presentation of a task. In the meantime, there is also the possibility to evaluate computer-based answer options <TextLink reference="22"></TextLink>. In the near future, new developments are to be expected in this area, which will make use of artificial intelligence methods.</Pgraph><SubHeadline3>Script Concordance Test (SCT)</SubHeadline3><Pgraph>An SCT is used to check the &#8216;clinical reasoning&#8217; competence of examinees in situations of clinical uncertainty <TextLink reference="23"></TextLink>. Short clinical scenarios are described and additional information is provided step by step. In light of this new information, the investigator should then make diagnostic, follow-up or therapeutic decisions <TextLink reference="24"></TextLink>. Using a 5-point Likert scale from -2 to &#43;2, the examinee must indicate to what extent the additional information supports or does not support the disease hypothesis described in the scenario <TextLink reference="25"></TextLink>. The results of the test takers are subsequently compared with the assessments of an expert group; the &#8220;gold standard&#8221; answer achieves the greatest number of points on which most experts have agreed <TextLink reference="23"></TextLink>. Figure 1 <ImgLink imgNo="1" imgType="figure"/> shows an example of three questions <TextLink reference="26"></TextLink>.</Pgraph><Pgraph>Various working groups have been able to demonstrate the favourable psychometric properties of the SCT (construct validity, reliability and feasibility) <TextLink reference="24"></TextLink>. Brailovsky et al. (2001, quoted after Epstein <TextLink reference="20"></TextLink>) were able to show that the answers to such questions correlate with the candidate&#8217;s level of education and can predict their future performance in oral examinations in terms of their &#8220;clinical reasoning&#8221; ability <TextLink reference="20"></TextLink>. A critical weakness of the 5-point Likert scale is that it can lead to misunderstandings and false assessments by the expert panel, so Lineberry et al. recommend the use of a 3-point scale consisting of the following: &#8220;refuted&#8221;, &#8220;neither refuted nor supported&#8221; and &#8220;applicable&#8221;. In addition, there is a risk that candidates&#8217; answers will tend towards the middle and thus they will obtain a better test result than those who use the Likert scale in its extremes <TextLink reference="26"></TextLink>. In addition, the usefulness of scores corresponding to an expert group is still under discussion, especially since 10-20 members <TextLink reference="27"></TextLink> are recommended for this. The SCT is therefore quite complex.</Pgraph><SubHeadline3>Structured Oral Examination</SubHeadline3><Pgraph>The oral examination is a traditional form of examination in which one or more examiners address questions to the candidate. The oral exam is designed to evaluate knowledge, explore depth of knowledge and test other qualities such as mental agility. Colton &#38; Peterson, Foster et al. and Kelly et al. criticised the use of oral examinations in high-stakes tests because of their low reliability (Peterson 1967, Foster et al. 1969, Kelly et al. 1971, cited after Davis <TextLink reference="28"></TextLink>). During an oral examination numerous sources of error occur to which examiners are subject in the framework. For example, with the primacy effect, first impressions dominate over later impressions and, with the recency effect, later impressions are more lasting. In the halo effect, the perception and evaluation of one property outshines the perception and evaluation of other properties. Antipathy, sympathy and the composition of the examiners also have an influence on the evaluation of the test performance <TextLink reference="29"></TextLink>. According to Roloff et al. reliability and objectivity increase when several examiners examine independently and the number of questions and the examination time increase (Roloff 2016, cited by Gerhard-Szep <TextLink reference="18"></TextLink>). Memon et al. have named 15 quality assurance measures that are necessary from the point of view of the literature to ensure the objectivity, reliability and validity of specialist examinations.  They state that the oral examination is most suitable for clinical reasoning and decision making. The content of the examination should be determined in advance by a panel of experts. The examination questions should be selected in such a way that they adequately examine not only the corresponding depth of knowledge but also the breadth of the subject area and guarantee a corresponding inter-item reliability. Examiners must first be trained with regard to carrying out an oral examination. Deviations between examiners (inter-examiner variations) must be monitored and addressed. Item creation and implementation processes must be standardised and a statistical evaluation should give conclusions about reliability. In the case of oral examinations, bias must be expected in the assessment and therefore quality assurance should be carried out to this end <TextLink reference="30"></TextLink>.</Pgraph><SubHeadline3>Unstructured Oral Examination</SubHeadline3><Pgraph>An unstructured oral examination is usually carried out by two untrained examiners who examine based on their experience. Typically, there is neither a pre-formulated expectation horizon nor previously written questions based on the curriculum or blueprint. As early as 1985, Jayawickramarajah et al. were able to demonstrate that two thirds of the questions in an unstructured oral examination exclusively examined factual knowledge. An additional problem of an unstructured oral examination is the high probability of an occurrence of Construct Irrelevant Variance (CIV) due to the fact that too few examiners are used. CIV could occur, for example, when the testing of the competence &#8220;clinical decision making&#8221; is influenced by the appearance, fear, language skills or clothing of the examinee. Construct Underrepresentation (CU) is a further hurdle that must be considered in the context of an unstructured oral examination, since, for example, two to three clinical scenarios that are tested cannot cover the entire range of the substance area to be tested. Concerns about the validity of this traditional form of examination have led to it being replaced by written examinations or structured oral examinations (Jayawickramarajah et al. 1985, Turnball, Danoff, &#38; Norman, 1996, Pokorny &#38; Frazier, 1966, quoted from Lamping et al. 2007 <TextLink reference="31"></TextLink>).</Pgraph><SubHeadline3>OSCE</SubHeadline3><Pgraph>The OSCE test format was developed by Harden in the 1970s and primarily tests clinical and practical competencies. A higher objectivity is achieved through standardisation <TextLink reference="3"></TextLink>. In order to achieve a standardised presentation of illnesses, actors are specially trained for this purpose <TextLink reference="32"></TextLink>. A number of problems are presented to the examinee in the form of a course. Both the number of stations and the number of examiners have a positive effect on its reliability. Despite high variance in studies, a good reliability can already be achieved with more than 10 stations <TextLink reference="33"></TextLink>. The examinee has approximately 5-15 minutes per station to complete the task <TextLink reference="2"></TextLink>. The investigator checks the observed clinical competence using a checklist and&#47;or a global rating scale. OSCEs allow a diagnosis to be made in the context of contact with the standardised patient (SP) through skilful anamnesis techniques and a patient-centred physical examination. According to Van der Vleuten and Tamblyn, trained SPs cannot be distinguished from real patients; they can repeatedly perform reliably, and they can also give valuable feedback to the test subjects (Van der Vleuten 1990, Tamblyn 1991, cited after Newble <TextLink reference="2"></TextLink>). The OSCE is generally regarded positively by students and lecturers (Roberts &#38; Brown 1990, quoted from Rushfort <TextLink reference="34"></TextLink>), even if some students perceive the exam as stressful. Compared to other exams, it is more objective (Schuwirth &#38; Van der Vleuten 2003, quoted after Rushforth <TextLink reference="34"></TextLink>) and has a positive effect on the motivation of the candidates to study for it (Bartfey et al. 2004, quoted after Rushforth <TextLink reference="34"></TextLink>).</Pgraph><SubHeadline2>Overview of the evaluation of the examination formats</SubHeadline2><Pgraph>Table 2 <ImgLink imgNo="2" imgType="table"/>, following Gerhard-Szep et al., Lubarsky et al., Epstein et al. and van der Vleuten et al. <TextLink reference="4"></TextLink>, <TextLink reference="18"></TextLink>, <TextLink reference="20"></TextLink>, <TextLink reference="25"></TextLink> below, was designed to illustrate the most frequently occurring forms of assessment in the DACH region and to classify them from the authors&#8217; point of view with regard to the essential quality criteria described. It essentially serves to provide a better overview and is intended to support the recommendations for a best practice specialist assessment.</Pgraph><SubHeadline2>Recommendation of a Best Practice Specialist Assessment</SubHeadline2><Pgraph>In the following, recommendations for a best practice specialist assessment are given. These have been derived from the current literature. </Pgraph><Pgraph>Observance of the following recommendations helps to ensure that the resulting tests are as valid, reliable, objective, accepted, instructive and cost-effective as possible. This is necessary so that competence-oriented learning objectives can be meaningfully tested and examinations can prove that candidates have learnt the competences necessary for the independent treatment of patients. </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark1>Use of different test methods (triangulation):</Mark1> Different test methods should be used to adequately test knowledge, on the one hand, and practical and communicative skills on the other. Only the combination (triangulation) of the results of different assessment formats can ensure high validity and different competences <TextLink reference="35"></TextLink>. </ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark1>Prior definition of the contents and competences to be tested (blueprinting):</Mark1> A weighted examination plan (so-called blueprint) provides a framework for the assessment by ensuring that a balanced selection of relevant learning objectives is incorporated into the test before it is held <TextLink reference="36"></TextLink>. This is to ensure that the test is valid, fair, relevant and representative of the subject being examined. </ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark1>Prior definition of the questions and the horizon of expectations: </Mark1>For oral and practical examinations, as for written formats, the questions and the horizon of expectations must be recorded in writing for each question&#47;station in advance (so-called structuring). In oral and practical assessments, clearly structured checklists unequivocally present the horizon of expectations and thus ensure the necessary objectivity of interpretation and evaluation <TextLink reference="18"></TextLink>, <TextLink reference="37"></TextLink>.</ListItem><ListItem level="1" levelPosition="4" numString="4."><Mark1>Sufficient number of questions, examiners, stations&#47;learning objectives to be examined: </Mark1>A minimum reliability of 0.8 is given for relevant assessments <TextLink reference="4"></TextLink>, <TextLink reference="35"></TextLink>. In order to improve these, the number of tasks and&#47;or their quality can be increased <TextLink reference="35"></TextLink>. Likewise, the number of examiners has a positive effect on reliability (Swanson 1987, cited after Lynch) <TextLink reference="38"></TextLink>. The more examiners test, the better the reliability becomes. In oral and practical examinations, it makes more sense to have one examiner per topic&#47;station rather than several examiners at the same time with fewer stations&#47;subjects. </ListItem><ListItem level="1" levelPosition="5" numString="5."><Mark1>Quality assurance of the created questions&#47;tasks: </Mark1>The content and formal linguistic review and revision of the tasks is necessary to guarantee the unambiguity of the answers and the high quality of the tasks and questions. The validity of the examination results is strengthened by a review process, where experts trained in medical didactics review the questions and tasks <TextLink reference="4"></TextLink>, <TextLink reference="39"></TextLink>.</ListItem><ListItem level="1" levelPosition="6" numString="6."><Mark1>Quality assurance in the evaluation of the assessment: </Mark1>Quality assurance through test statistical evaluation of examinations makes it possible to revise OSCE stations and examination tasks in a targeted manner, to examine checklists and, if necessary, to draw conclusions about the quality of teaching. The following parameters are recommended: for written assessments at least one evaluation should be carried out with regard to reliability, selectivity and item difficulty (except for small numbers of candidates &#8211; i.e. less than 30 &#8211; because of the influence of chance). For oral or practical examinations, the better &#8220;OSCE-Metrics&#8221; <TextLink reference="40"></TextLink> are very desirable for the evaluation of selectivity and item difficulty, as well as reliability at item level. A more modern approach to determining the pass mark for examinations, in which passing can also take place with more or less than 50&#37; solved tasks, is that where the pass mark is determined in terms of content <TextLink reference="36"></TextLink> &#8211; for example, a modified Angoff procedure with MC <TextLink reference="41"></TextLink>, or the borderline regression method with OSCE (see Wood et al. <TextLink reference="42"></TextLink>). </ListItem><ListItem level="1" levelPosition="7" numString="7."><Mark1>Learning effect for the candidates:</Mark1> Assessments do not only serve for decision-making but they are also very important as a learning incentive for candidates and, additionally, they support the learning effect by giving the candidates feedback regarding their examination results <TextLink reference="4"></TextLink>. For example, a feedback letter can be designed in such a way that the candidates know which areas of the blueprint they did less well in compared to the other tasks and the other candidates.</ListItem></OrderedList></Pgraph><SubHeadline2>Consideration of cost efficiency</SubHeadline2><Pgraph>High quality assessments have their price, but they definitely represent a worthwhile investment with regard to the learning effect of test items <TextLink reference="4"></TextLink>, <TextLink reference="39"></TextLink>. The method of examination should be chosen in each case, based on both its ability to adequately examine the subject matter (content validity) and it being as cost-efficient as possible. If, for example, it is primarily a question of testing the application knowledge of many candidates, a written examination with vignette questions is superior to a structured oral examination in terms of cost efficiency. The merger of professional societies can reduce the effort involved in, for example, practical examinations (like OSCE), with the aim of checking the CanMEDS roles (cf. the Swiss basic examination in surgery in the field of knowledge <Hyperlink href="https:&#47;&#47;basisexamen.ch&#47;">https:&#47;&#47;basisexamen.ch&#47;</Hyperlink>).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><SubHeadline2>&#220;bersicht der eingesetzten Pr&#252;fungsformate in der DACH-Region</SubHeadline2><SubHeadline3>Schweiz</SubHeadline3><Pgraph>In der Schweiz werden in 26 von 46 Fachgebieten Multiple Choice (MC)-Pr&#252;fungen eingesetzt Die Anzahl der Fragen variiert zwischen 50 und 200 Fragen. Die minimale Pr&#252;fungsdauer betr&#228;gt 120 Minuten, das Maximum liegt bei 360 Minuten. Die Fachgebiete An&#228;sthesiologie, Allergologie&#47;Immunologie sowie Gef&#228;&#223;chirurgie werden in Verbindung mit der European Union of Medical Specialists (UEMS) gepr&#252;ft. Die Kardiologie plant den Anschluss an die europ&#228;ische Facharztpr&#252;fung f&#252;r das Jahr 2018. Folgende Fragentypen werden in der Schweiz genutzt, wobei es hier eine deutliche Varianz hinsichtlich des Vorkommens innerhalb der Fachgebiete gibt: Typ A positiv, Typ A negativ, Typ Kprim, Typ B, Typ E, Typ R, Typ Pick N werden als MC-Formate eingesetzt. Zus&#228;tzlich werden Short Answer Questions (SAQ) sowie Script Concordance Tests (SCT) genutzt. Eine gute Einf&#252;hrung mit Beispielen zu den einzelnen, unterschiedlichen Fragentypen liefern Swanson und Case <TextLink reference="15"></TextLink>. Im Fachgebiet Psychiatrie&#47;Psychotherapie m&#252;ssen die Pr&#252;flinge in einem 2. Teil eine schriftliche Arbeit abgeben und an einem Kolloquium teilnehmen. In der Radiologie u.a. wird mit Freitext Pr&#252;fungen gepr&#252;ft, die nicht n&#228;her erl&#228;utert werden. Hier steht die Diagnostik von F&#228;llen im Vordergrund. Zum Einsatz kommt ein webbasiertes Pr&#252;fungstool. Neben dem schriftlichen Format gibt es in der Schweiz auch m&#252;ndliche Pr&#252;fungen, u.a. Besprechung eines Papers, Vorstellung von Patientendossiers, Durchf&#252;hrung eines Kolloquiums sowie strukturierte m&#252;ndliche Pr&#252;fungen (SMP). Die Dauer variiert von 20 Minuten bis hin zu 180 Minuten. Einige Fachgebiete, z.B. die Endokrinologie&#47;Diabetologie, kombinieren hierbei eine schriftliche mit einer m&#252;ndlichen Pr&#252;fung. In 23 Fachgebieten, also 50&#37; der Facharztpr&#252;fungen in der Schweiz, finden Pr&#252;fungen mit einem praktischen Anteil statt. Im Fachgebiet der Otho-Rhino-Laryngologie sowie der Thoraxchirurgie wird z.B. praktisch im Rahmen einer Operation gepr&#252;ft. Die Rheumatologie f&#252;hrt einen 9 Stationen umfassenden OSCE durch, wobei pro Station 10 Minuten zur Verf&#252;gung stehen. Hierbei werden nicht nur Wissen (Anatomie, Pathophysiologie u.a.), sondern auch praktische Fertigkeiten (Untersuchungstechniken) sowie kommunikative Fertigkeiten standardisiert &#252;berpr&#252;ft. Im Jahr 2017 wurden durch das SIWF 1428 Facharzttitel <TextLink reference="16"></TextLink> und im Jahr 2018 1434 Facharzttitel vergeben <TextLink reference="17"></TextLink>. Eine Durchfallquote wird von der SIWF im Gesch&#228;ftsbericht nicht ver&#246;ffentlicht. </Pgraph><SubHeadline3>&#214;sterreich</SubHeadline3><Pgraph>14 von 57 Pr&#252;fungen werden mit MC-Fragen durchgef&#252;hrt. Das Minimum der Fragen wird mit 50 angegeben und reicht bis hin zu 200 Fragen, welche im Fachgebiet Haut- und Geschlechtskrankheiten zu beantworten sind. Den Pr&#252;flingen stehen 60 bis 300 Minuten zur Verf&#252;gung. Die An&#228;sthesiologie und Urologie sind der europ&#228;ischen Facharztpr&#252;fung angegliedert. Die Fachgebiete Pathologie und Radiologie setzen Pr&#252;fungen mit Kurzantwortfragen ein.  Die Dauer umfasst 80-240 Minuten. 45 Fachgebiete pr&#252;fen in &#214;sterreich m&#252;ndlich anhand von strukturierten m&#252;ndlichen Pr&#252;fungen (Einsatz eines sog. &#8222;Blueprint&#8220;, vorformulierter Fragen und eines Erwartungshorizontes). Unter &#8222;Blueprint&#8220; wird in diesem Zusammenhang ein gewichteter inhaltlicher Pr&#252;fungsplan verstanden, der sicherstellt, dass eine Auswahl an relevanten Pr&#252;fungsinhalten eine inhaltliche Gleichbehandlung eines jeden Pr&#252;flings gew&#228;hrleistet. Bei den meisten F&#228;chern wird ein Blueprint erstellt und explizit bei der Pr&#252;fungsbeschreibung erw&#228;hnt. Die Dauer der Pr&#252;fung kann zwischen 40 und 120 Minuten variieren. Einige F&#228;cher pr&#252;fen sowohl schriftlich, als auch m&#252;ndlich. Eine klinisch-praktische Pr&#252;fung gibt es aktuell in &#214;sterreich nicht. Eine Statistik &#252;ber die Anzahl der in &#214;sterreich pro Jahr durchgef&#252;hrten Pr&#252;fungen und entsprechender Durchfallquoten liegt uns nicht vor. </Pgraph><SubHeadline3>Deutschland</SubHeadline3><Pgraph>Die Facharztpr&#252;fung wird bei allen Landes&#228;rztekammern in Form einer unstrukturierten m&#252;ndlichen Pr&#252;fung (UMP) abgehalten, die mindestens 30 Minuten dauert und bis zu 60 Minuten dauern kann. Diese Pr&#252;fungsform wird bei allen Facharztbezeichnungen eingesetzt und auch als &#8222;kollegiales Fachgespr&#228;ch&#8220; bezeichnet. Die Anzahl der Pr&#252;fer kann variieren. Mindestens ein Pr&#252;fer muss aus dem zu pr&#252;fenden Fachgebiet stammen. Die Pr&#252;fungsergebnisse sind zu dokumentieren. Typischerweise wird weder ein strukturierter Blueprint erstellt, noch werden im Vorfeld im Sinne einer standardisierten und strukturierten Pr&#252;fung Fragen vorformuliert und ein Erwartungshorizont angegeben. Die Landes&#228;rztekammer Hamburg stellt hier eine Ausnahme dar. Hier werden die Fragen im Vorfeld an den Pr&#252;fungsvorsitzenden &#252;berreicht. Tabelle 1 <ImgLink imgNo="1" imgType="table"/> zeigt die Anzahl der Facharztpr&#252;fungen und dazugeh&#246;rige Durchfallquoten. Die Daten wurden denjenigen Gesch&#228;ftsberichten des Jahres 2017 der jeweiligen Landes&#228;rztekammern, die online verf&#252;gbar waren, entnommen. Eine Anfrage an die BAEK hinsichtlich einer umfassenden, bundesweiten Statistik lieferte das Ergebnis, dass eine solche Statistik nicht verf&#252;gbar sei. </Pgraph><SubHeadline2>Kritische W&#252;rdigung der in der DACH-Region eingesetzten Pr&#252;fungen</SubHeadline2><SubHeadline3>MC-Pr&#252;fungen</SubHeadline3><Pgraph>MC-Pr&#252;fungen sind im Bereich der Medizin als Pr&#252;fungsmethode weit verbreitet, da sie kosteneffizient einsetzbar sind und f&#252;r das Pr&#252;fen von Wissen eine hohe Validit&#228;t und Reliabilit&#228;t bieten k&#246;nnen (Norcini 1985, zitiert nach Gerhard-Szep <TextLink reference="18"></TextLink>). Dies setzt aber voraus, dass inhaltlich und formal hochwertige Fragen in ausreichender Anzahl pro Pr&#252;fung (mindestens 40) eingesetzt werden (J&#252;nger 2014, zitiert nach Gerhard-Szep <TextLink reference="18"></TextLink>). Case et al. betonen, dass zwei Kriterien zur Entwicklung einer guten Frage notwendig sind: Die Frage muss relevanten Inhalt pr&#252;fen und gut strukturiert sein <TextLink reference="15"></TextLink>. Die MC-Fragen-Entwicklung auf qualitativ hohem Niveau ist zeitaufwendig. Mit schriftlichen Pr&#252;fungsmethoden ist es vor allem m&#246;glich, Faktenwissen zu pr&#252;fen. Kommunikative und praktische Fertigkeiten bzw. Kompetenzen mittels MC-Fragen zu pr&#252;fen ist, im Gegensatz zu einer OSCE, nicht m&#246;glich <TextLink reference="19"></TextLink>. </Pgraph><SubHeadline3>Kurzantwortfragen</SubHeadline3><Pgraph>Bei Kurzantwortfragen m&#252;ssen frei formulierte, kurze, stichwortartige Antworten gegeben werden. Pr&#252;fungsteilnehmer m&#252;ssen spontan &#252;ber die richtige L&#246;sung nachdenken und k&#246;nnen nicht auf vorgegebene Antwortm&#246;glichkeiten reagieren <TextLink reference="5"></TextLink>. Dies vermindert das sog. &#8222;Cueing&#8220;, welches Pr&#252;flingen die M&#246;glichkeit gibt, eine Frage ohne Wissen richtig zu beantworten (Schuwirth 2004, zitiert nach Epstein <TextLink reference="20"></TextLink>). Idealerweise werden auch hier &#8222;kontextreiche&#8220; Fragenst&#228;mme (Fallvignetten) angeboten, die auch das Pr&#252;fen von Anwendungswissen und z.B. &#8222;Clinical Reasoning&#8220; erm&#246;glichen. Die Reliabilit&#228;t h&#228;ngt wesentlich auch von der Qualit&#228;t der Bewertungen durch die Pr&#252;fer ab <TextLink reference="20"></TextLink> &#8211; hier kann ein Training der Pr&#252;fer im Vorfeld Abhilfe schaffen. Die Auswertung ist anf&#228;lliger f&#252;r subjektive Verzerrungen als bei MC-Fragen. Vorformulierte Erwartungshorizonte, an denen sich die auswertenden Pr&#252;fer orientieren m&#252;ssen, k&#246;nnen die Objektivit&#228;t erh&#246;hen und sollten vorliegen. Akzeptable Reliabilit&#228;tswerte erreicht man durch den Einsatz mehrerer Pr&#252;fer, die jeweils f&#252;r die Auswertung unterschiedlicher Aufgaben zust&#228;ndig sind <TextLink reference="5"></TextLink>. Eine anschauliche Vorlage einer Aufgabenstellung liefern Rademakers et al. <TextLink reference="21"></TextLink>. Zwischenzeitlich gibt es auch die M&#246;glichkeit, die Antwortoptionen computerbasiert auszuwerten <TextLink reference="22"></TextLink>. Hier sind in naher Zukunft neue Entwicklungen zu erwarten, die auf Methoden der k&#252;nstlichen Intelligenz zur&#252;ckgreifen.</Pgraph><SubHeadline3>Script Concordance Test (SCT)</SubHeadline3><Pgraph>Der SCT dient zur &#220;berpr&#252;fung der &#8222;Clinical Reasoning&#8220; Kompetenz von Pr&#252;flingen in Situationen klinischer Unsicherheit <TextLink reference="23"></TextLink>. Es werden kurze klinische Szenarien geschildert und schrittweise weitere Zusatzinformationen gegeben. Der Pr&#252;fling soll nun im Lichte dieser neuen Informationen diagnostische, weiterf&#252;hrende oder therapeutische Entscheidungen treffen <TextLink reference="24"></TextLink>. Anhand einer 5 Punkte umfassenden Likert Skala von -2 bis &#43;2 muss der Pr&#252;fling angeben, inwiefern die Zusatzinformation die Krankheitshypothese, die im Szenario beschrieben ist, unterst&#252;tzt oder eben nicht <TextLink reference="25"></TextLink>. Die Ergebnisse der Pr&#252;flinge werden im Nachgang mit den Einsch&#228;tzungen einer Expertengruppe abgeglichen; dabei erzielt die Antwort die meisten Punkte, bei der die meisten Experten zugestimmt haben (Goldstandard) <TextLink reference="23"></TextLink>. Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> zeigt ein Beispiel mit drei Fragen <TextLink reference="25"></TextLink>. </Pgraph><Pgraph>Zwischenzeitlich konnten verschiedene Arbeitsgruppen g&#252;nstige psychometrische Eigenschaften des SCT nachweisen (Konstruktvalidit&#228;t, Reliabilit&#228;t und Durchf&#252;hrbarkeit) <TextLink reference="23"></TextLink>. Brailovsky et al. (2001, zitiert nach Epstein <TextLink reference="20"></TextLink>) konnten zeigen, dass die Antworten auf solche Fragen mit dem Ausbildungsstand des Pr&#252;flings korrelieren und dessen k&#252;nftige Leistung bei m&#252;ndlichen Pr&#252;fungen in Bezug auf dessen F&#228;higkeit des &#8222;clinical reasoning&#8220; vorhersagen <TextLink reference="20"></TextLink>. Kritisch ist, dass eine 5 Punkte Likert Skala zu Missverst&#228;ndnissen und Angabe falscher Bewertungen seitens des Expertenpanels f&#252;hren kann, so dass Lineberry et al. die Verwendung einer 3 Punkte Skala bestehend aus &#8222;widerlegt&#8220;, &#8222;weder widerlegt, noch unterst&#252;tzt&#8220; und &#8222;zutreffend&#8220; empfehlen. Zus&#228;tzlich besteht die Gefahr, dass Pr&#252;flinge ihre Antworten im Sinne der Tendenz zur Mitte angeben und damit ein besseres Pr&#252;fungsergebnis erhalten, als diejenigen, die die Likert Skala in ihren Extremen ausnutzen <TextLink reference="26"></TextLink>. Zudem ist weiterhin in Diskussion, wie sinnvoll die Punktevergabe - einer Expertengruppe entsprechend &#8211; ist, zumal hierf&#252;r 10-20 Mitglieder <TextLink reference="27"></TextLink> empfohlen werden und der SCT damit recht aufw&#228;ndig ist.</Pgraph><SubHeadline3>Strukturierte M&#252;ndliche Pr&#252;fung</SubHeadline3><Pgraph>Die m&#252;ndliche Pr&#252;fung ist eine traditionelle Form der Pr&#252;fung, bei der ein oder mehrere Pr&#252;fer Fragen an den Kandidaten richten. Die m&#252;ndliche Pr&#252;fung soll das Wissen bewerten, die Tiefe des Wissens erforschen und andere Qualit&#228;ten wie die geistige Beweglichkeit testen. Colton &#38; Peterson, Foster et al. und Kelly et al. kritisierten den Einsatz von m&#252;ndlichen Pr&#252;fungen in High-Stakes-Pr&#252;fungen aufgrund ihrer geringen Reliabilit&#228;t (Peterson 1967, Foster et al. 1969, Kelly et al. 1971, zitiert nach Davis <TextLink reference="28"></TextLink>. Bei der m&#252;ndlichen Pr&#252;fung treten zahlreiche Fehlerquellen auf, denen Pr&#252;fer im Rahmen unterliegen. Beispielsweise dominiert beim Primacy-Effekt der erste Eindruck &#252;ber sp&#228;tere, beim Recency-Effekt setzen sich sp&#228;tere Eindr&#252;cke nachhaltiger fest. Beim Halo-Effekt &#252;berstrahlt die Wahrnehmung und Bewertung einer Eigenschaft, die Wahrnehmung und Bewertung anderer Eigenschaften. Antipathie, Sympathie und die Zusammensetzung der Pr&#252;fer haben ebenso einen Einfluss auf die Bewertung der Pr&#252;fungsleistung <TextLink reference="29"></TextLink>. Nach Roloff et al. steigen Reliabilit&#228;t und Objektivit&#228;t, wenn mehrere Pr&#252;fer unabh&#228;ngig voneinander pr&#252;fen und die Anzahl der Fragen sowie die Pr&#252;fungszeit zunehmen (Roloff 2016, zitiert nach Gerhard-Szep <TextLink reference="18"></TextLink>). Memon et al. haben 15 Qualit&#228;tssicherungsma&#223;nahmen benannt, die aus der Sicht der Literatur notwendig sind, um Objektivit&#228;t, Reliabilit&#228;t und Validit&#228;t von Facharztpr&#252;fungen zu gew&#228;hrleisten.  Sie geben an, dass die m&#252;ndliche Pr&#252;fung am ehesten geeignet ist &#8222;Clinical Reasoning&#8220; und &#8222;Decision Making&#8220; zu pr&#252;fen. Der Pr&#252;fungsinhalt sollte durch ein Expertengremium zuvor festgelegt werden. Die Pr&#252;fungsfragen sollten dahingehend ausgew&#228;hlt werden, dass sie nicht nur die entsprechende Wissenstiefe, sondern auch die Breite des Stoffgebietes ad&#228;quat pr&#252;fen und eine entsprechende inter-item Reliabilit&#228;t gew&#228;hrleisten. Pr&#252;fer m&#252;ssen zuvor in Bezug auf eine m&#252;ndliche Pr&#252;fung geschult werden. Abweichungen zwischen Pr&#252;fern (inter-examiner variations) m&#252;ssen &#252;berwacht und adressiert werden. Item-Erstellungs- und Implementierungsprozesse m&#252;ssen standardisiert sein und eine statistische Auswertung soll R&#252;ckschl&#252;sse auf die Reliabilit&#228;t geben. Bei m&#252;ndlichen Pr&#252;fungen muss in der Bewertung mit Verzerrungen (Bias) gerechnet werden und deshalb sollte dahingehend eine Qualit&#228;tssicherung durchgef&#252;hrt  werden <TextLink reference="30"></TextLink>. </Pgraph><SubHeadline3>Unstrukturierte M&#252;ndliche Pr&#252;fung</SubHeadline3><Pgraph>Die unstrukturiert m&#252;ndliche Pr&#252;fung sieht zumeist die Anzahl von zwei ungeschulten Pr&#252;fern vor, die basierend auf ihren Pr&#252;fungserfahrungen, pr&#252;fen. Hierbei gibt es typischerweise weder einen vorformulierten Erwartungshorizont, noch zuvor verschriftliche Fragen, die anhand des Curriculums bzw. Blueprint ausgerichtet sind. Bereits 1985 konnten Jayawickramarajah et al. darstellen, dass 2&#47;3 der Fragen im Rahmen einer unstrukturierten m&#252;ndlichen Pr&#252;fung ausschlie&#223;lich Faktenwissen pr&#252;ften. Zus&#228;tzliches Problem einer unstrukturierten m&#252;ndlichen Pr&#252;fung ist die hohe Wahrscheinlichkeit des Auftretens der Konstrukt Irrelevanten Varianz (KIV), dadurch, dass eine zu geringe Anzahl an Pr&#252;fern eingesetzt wird. KIV tritt auf, wenn beispielsweise die zu pr&#252;fende Kompetenz &#8222;Clinical decision making&#8220; durch Auftreten, Angst, Sprachfertigkeit oder Kleidung des Pr&#252;flings beeinflusst werden. Konstrukt Unterrepr&#228;sentation (KU) ist eine weitere H&#252;rde, die im Rahmen einer unstrukturiert m&#252;ndlichen Pr&#252;fung beachtet werden muss, da zum Beispiel zwei bis drei klinische Szenarien, die gepr&#252;ft werden, nicht die ganze Breite des zu pr&#252;fenden Stoffgebietes abdecken k&#246;nnen. Bedenken hinsichtlich der Validit&#228;t dieser traditionellen Pr&#252;fungsform haben dazu gef&#252;hrt, dass diese Pr&#252;fungsform durch schriftliche Pr&#252;fungen oder durch strukturierte m&#252;ndliche Pr&#252;fungen ersetzt wurden (Jayawickramarajah et al. 1985, Turnball, Danoff, &#38; Norman, 1996, Pokorny &#38; Frazier, 1966, zitiert nach Lamping et al. 2007 <TextLink reference="31"></TextLink>).  </Pgraph><SubHeadline3>OSCE</SubHeadline3><Pgraph>Das OSCE-Pr&#252;fungsformat wurde in den 70iger Jahren von Harden entwickelt und pr&#252;ft vor allem klinisch-praktische Kompetenzen. Durch Standardisierung  wird eine h&#246;here Objektivit&#228;t erreicht <TextLink reference="3"></TextLink>. Damit eine standardisierte Darstellung von Erkrankungen erreicht werden kann, werden Schauspieler speziell f&#252;r diesen Einsatz trainiert <TextLink reference="32"></TextLink>. Eine Reihe von Problemstellungen wird dem Pr&#252;fling in Form eines Parcours pr&#228;sentiert. Die Anzahl sowohl der Stationen, als auch der Pr&#252;fer, wirkt sich positiv auf die Reliabilit&#228;t aus. Trotz hoher Varianz in Studien, kann bei mehr als 10 Stationen bereits eine gute Reliabilit&#228;t erreicht werden <TextLink reference="33"></TextLink>. Pro Station hat der Pr&#252;fling ca. 5-15 Minuten Zeit, um die Aufgabenstellung zu bearbeiten <TextLink reference="2"></TextLink>. Der Pr&#252;fer &#252;berpr&#252;ft die gesehene klinische Kompetenz anhand einer Checkliste und&#47;oder einer globalen Ratingskala. OSCEs machen es m&#246;glich, dass im Rahmen des Kontakts mit dem standardisierten Patienten (SP) durch geschickte Anamnesetechniken und eine patientenzentrierte k&#246;rperliche Untersuchung, eine Diagnose gestellt werden kann. Trainierte SPs k&#246;nnen nach Van der Vleuten und Tamblyn nicht von richtigen Patienten unterschieden werden, wiederholt zuverl&#228;ssig spielen und auch wertvolles Feedback an die Pr&#252;flinge geben (Van der Vleuten 1990, Tamblyn 1991, zitiert nach Newble <TextLink reference="2"></TextLink>). Die OSCE wird von Studierenden und Dozierenden im Allgemeinen positiv betrachtet (Roberts &#38; Brown 1990, zitiert nach Rushfort <TextLink reference="34"></TextLink>) auch, wenn die Studierenden die Pr&#252;fung z.T. als Stress empfinden. Der Pr&#252;fung wird im Vergleich zu anderen Pr&#252;fungen eine gr&#246;&#223;ere Objektivit&#228;t bescheinigt (Schuwirth &#38; Van der Vleuten 2003, zitiert nach Rushforth <TextLink reference="34"></TextLink>) und hat einen positiven Effekt auf die Motivation (Bartfey et al. 2004, zitiert nach Rushforth <TextLink reference="34"></TextLink>) der Pr&#252;flinge hierf&#252;r zu lernen <TextLink reference="34"></TextLink>.</Pgraph><SubHeadline2>&#220;berblick der Bewertung der Pr&#252;fungsformate</SubHeadline2><Pgraph>Die nachfolgende Tabelle 2 <ImgLink imgNo="2" imgType="table"/>, in Anlehnung an Gerhard-Szep et al., Lubarsky et al., Epstein et al. und Van der Vleuten et al. <TextLink reference="4"></TextLink>, <TextLink reference="18"></TextLink>, <TextLink reference="20"></TextLink>, <TextLink reference="25"></TextLink> wurde konzipiert, um die in der DACH-Region auftretenden Pr&#252;fungsformen zu vergegenw&#228;rtigen und aus Sicht der Autoren hinsichtlich beschriebener, wesentlicher Qualit&#228;tskriterien einzuordnen. Sie dient im Wesentlichen der besseren &#220;bersicht und soll die Empfehlungen zu einer Best Practice Facharztpr&#252;fung unterst&#252;tzen. </Pgraph><SubHeadline2>Empfehlung einer Best Practice Facharztpr&#252;fung</SubHeadline2><Pgraph>Im Folgenden werden Empfehlungen f&#252;r eine Best Practice Facharztpr&#252;fung gegeben, die der aktuellen Literatur abgeleitet wurden. </Pgraph><Pgraph>Die Beachtung der folgenden Empfehlungen unterst&#252;tzt, dass die resultierenden Pr&#252;fungen m&#246;glichst valide, reliabel, objektiv, akzeptiert, lehrreich und kosteneffizient sind. Dies ist notwendig, damit kompetenzorientierte Lernziele sinnvoll gepr&#252;ft werden k&#246;nnen und Pr&#252;fungen belegen, dass Pr&#252;flinge die zur eigenst&#228;ndigen Behandlung von Patienten notwendigen Kompetenzen erlernt haben. </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark1>Einsatz verschiedener Pr&#252;fungsmethoden (Triangulation): </Mark1>Unterschiedliche Pr&#252;fungsmethoden (z.B. eine schriftliche (e-)Pr&#252;fung f&#252;r Wissen und eine OSCE-Pr&#252;fung f&#252;r praktische und kommunikative Fertigkeiten) sollten genutzt werden, um einerseits Wissen und andererseits praktische und kommunikative Fertigkeiten ad&#228;quat pr&#252;fen zu k&#246;nnen. Erst die Kombination (Triangulation) der Ergebnisse verschiedener Pr&#252;fungsformate kann eine hohe Validit&#228;t und unterschiedliche Kompetenzen sicherstellen <TextLink reference="35"></TextLink>. </ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark1>Vorab Festlegung der zu pr&#252;fenden Inhalte und Kompetenzen (Blueprinting): </Mark1>Ein gewichteter Pr&#252;fungsplan (sog. Blueprint) gibt den Rahmen f&#252;r die Pr&#252;fung vor, indem er vor einer Pr&#252;fung sicherstellt, dass eine ausgewogene Auswahl relevanter Lernziele in die Pr&#252;fung einflie&#223;t <TextLink reference="36"></TextLink>. So soll gew&#228;hrleistet werden, dass die Pr&#252;fung inhaltlich g&#252;ltig, fair, relevant und f&#252;r das gepr&#252;fte Fach repr&#228;sentativ ist. </ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark1>Vorab Festlegung der Fragestellungen und des Erwartungshorizontes: </Mark1>Bei m&#252;ndlichen und praktischen Pr&#252;fungen m&#252;ssen genauso wie bei schriftlichen Formaten die Fragestellungen und der Erwartungshorizont im Vorfeld pro Frage&#47;Station jeweils schriftlich festgehalten werden (sog. Strukturierung). Klar strukturierte Checklisten stellen bei m&#252;ndlichen  und praktischen Pr&#252;fungen  den Erwartungshorizont unmissverst&#228;ndlich dar und sorgen damit f&#252;r die notwendige Interpretations- und auch Auswertungs-Objektivit&#228;t <TextLink reference="18"></TextLink>, <TextLink reference="37"></TextLink>.</ListItem><ListItem level="1" levelPosition="4" numString="4."><Mark1>Ausreichende Anzahl an Fragen, Pr&#252;fern, Stationen&#47;zu pr&#252;fender Lernziele: </Mark1>F&#252;r relevante Pr&#252;fungen wird eine Mindestreliabilit&#228;t von 0,8 angegeben <TextLink reference="4"></TextLink>, <TextLink reference="35"></TextLink>. Um diese zu verbessern, kann die Anzahl der Aufgaben und&#47;oder deren Qualit&#228;t gesteigert werden <TextLink reference="35"></TextLink>. Ebenso hat die Anzahl der Pr&#252;fer einen steigernden Effekt auf die Reliabilit&#228;t (Swanson 1987, zitiert nach Lynch <TextLink reference="38"></TextLink>). Je mehr Pr&#252;fer pr&#252;fen, desto besser wird die Reliabilit&#228;t. In m&#252;ndlichen und praktischen Pr&#252;fungen ist es sinnvoller, je einen Pr&#252;fer pro Thema&#47;Station zu haben, anstatt mehrere Pr&#252;fer gleichzeitig und daf&#252;r weniger Stationen&#47;Themen. </ListItem><ListItem level="1" levelPosition="5" numString="5."><Mark1>Qualit&#228;tssicherung der erstellten Fragen&#47;Aufgaben:</Mark1> Der inhaltliche und formal-sprachliche Review und die Revision der Aufgabenstellungen sind zur Gew&#228;hrleistung der Eindeutigkeit der L&#246;sungen und hohen Qualit&#228;t der Aufgaben und Fragen notwendig. Die Validit&#228;t der Pr&#252;fungsergebnisse wird durch einen Reviewprozess (medizindidaktisch geschulte Experten) der Fragen und Aufgaben gest&#228;rkt <TextLink reference="4"></TextLink>, <TextLink reference="39"></TextLink>.</ListItem><ListItem level="1" levelPosition="6" numString="6."><Mark1>Qualit&#228;tssicherung bei der Auswertung der Pr&#252;fung:</Mark1> Die Qualit&#228;tssicherung durch teststatistische Auswertung von Pr&#252;fungen erm&#246;glicht, OSCE-Stationen und Pr&#252;fungsaufgaben gezielt zu &#252;berarbeiten, Checklisten zu pr&#252;fen und ggf.  auch Schlussfolgerung auf die Qualit&#228;t des Unterrichts zu ziehen. Als Parameter werden folgende empfohlen: Bei schriftlichen Pr&#252;fungen sollte zumindest eine Untersuchung bzgl. Reliabilit&#228;t, Trennsch&#228;rfe und Item-Schwierigkeit durchgef&#252;hrt werden (au&#223;er bei kleinen Kandidatenzahlen &#60;30, wegen des Einflusses des Zufalls). Bei m&#252;ndlichen bzw. praktischen Pr&#252;fungen ist die Untersuchung der Trennsch&#228;rfe und Item-Schwierigkeit und zus&#228;tzlich der Reliabilit&#228;t auf Posten- und Item-Niveau, besser &#8222;OSCE-Metrics&#8220; <TextLink reference="40"></TextLink> sehr w&#252;nschenswert. Ein modernerer Ansatz zur Festlegung der Bestehensgrenze von Pr&#252;fungen, bei der ein Bestehen auch bei mehr oder weniger als 50&#37; gel&#246;ster Aufgaben erfolgen kann, verfolgt den Ansatz der inhaltlichen Festlegung der Bestehensgrenze <TextLink reference="36"></TextLink>, (z.B. modifiziertes Angoff-Verfahren bei MC <TextLink reference="41"></TextLink>, Borderline Regression Methode bei OSCE (siehe Wood et al. <TextLink reference="42"></TextLink>). </ListItem><ListItem level="1" levelPosition="7" numString="7."><Mark1>Lerneffekt f&#252;r die Pr&#252;flinge: </Mark1>Pr&#252;fungen dienen nicht nur zur Entscheidungsfindung, sondern sind ebenso ein sehr wichtiger Lernanreiz f&#252;r die Kandidaten und unterst&#252;tzen zudem durch die Feedbackgabe von Pr&#252;fungsergebnissen an Pr&#252;flinge zus&#228;tzlich den Lerneffekt <TextLink reference="4"></TextLink>. So kann z.B. ein Feedbackbrief so gestaltet sein, dass die Pr&#252;flinge wissen, in welchen Bereichen des Blueprints sie weniger gut im Vergleich zu den anderen Aufgaben und zu den anderen Pr&#252;flingen abgeschnitten haben.</ListItem></OrderedList></Pgraph><Pgraph>Ber&#252;cksichtigung der Kosteneffizienz: Gute Pr&#252;fungen haben ihren Preis, stellen aber definitiv eine lohnenswerte Investition im Hinblick auf den Lerneffekt von Pr&#252;flingen dar <TextLink reference="4"></TextLink>, <TextLink reference="39"></TextLink>. Es sollte jeweils die Pr&#252;fungsmethode gew&#228;hlt werden, die einerseits den Pr&#252;fungsgegenstand ad&#228;quat pr&#252;fen kann (Inhaltsvalidit&#228;t) und andererseits dabei noch m&#246;glichst kosteneffizient ist. Wenn es also z.B. prim&#228;r um das &#220;berpr&#252;fen von Anwendungswissen bei vielen Kandidaten geht, ist eine schriftliche Pr&#252;fung mit Vignettenfragen einer strukturierten m&#252;ndlichen Pr&#252;fung in Sachen Kosteneffizienz &#252;berlegen. Der Zusammenschluss von Fachgesellschaften, kann den Aufwand z.B. f&#252;r praktische Pr&#252;fungen (z.B. OSCE) mit dem Ziel der &#220;berpr&#252;fung der CanMEDS-Rollen reduzieren (vgl. dem Schweizer Basisexamen in der Chirurgie im Bereich Wissen <Hyperlink href="https:&#47;&#47;basisexamen.ch&#47;">https:&#47;&#47;basisexamen.ch&#47;</Hyperlink>).</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><Pgraph>In this paper, the question of which specialist assessment methods are used in the DACH region is examined. In addition, the assessment methods used are critically reviewed and recommendations for the further development of specialist assessments are described, based on the current literature.</Pgraph><SubHeadline2>Testing methods used</SubHeadline2><Pgraph>More than 50&#37; of the specialist assessments conducted in Switzerland take the form of MC examinations. The specialist areas of Anaesthesiology, Allergology&#47;Immunology, Cardiology and Vascular Surgery are examined in conjunction with the European Union of Medical Specialists (UEMS). Other departments are planning to do so. Seven different types of MC questions are used, as well as the SAQ, free text examinations (not specified in more detail) and the SQT. Written work, SMP, practical examinations and an OSCE are also used. In total, 50&#37; of the Swiss specialist examinations have a practical component (cf. attachment 1 <AttachmentLink attachmentNo="1"/> and attachment 2 <AttachmentLink attachmentNo="2"/>).</Pgraph><Pgraph>In Austria, 25&#37; of the specialist assessments are conducted as written examinations (MC questions). Two specialist areas examine in conjunction with the UEMS. SAQ and SMP are also related forms of examination. Blueprinting is used regularly. There is no practical examination yet (cf. attachment 2 <AttachmentLink attachmentNo="2"/> and attachment 3 <AttachmentLink attachmentNo="3"/>). In Germany, an unstructured oral assessment takes place throughout the country, which is referred to as a &#8220;collegial content discussion&#8220; (cf. attachment 4 <AttachmentLink attachmentNo="4"/>). </Pgraph><SubHeadline2>Critical consideration and recommendations for the further development of specialist assessments</SubHeadline2><Pgraph>It is positive to note that in Switzerland 50&#37; of the specialist assessments already have a practical component. In order to be able to test practical and communicative competences within the scope of the specialist assessment, a practical, communication and competence-oriented examination should be used in addition to a knowledge-oriented examination method (written&#47;SMP). The OSCE format could be used here. In order to reduce costs, for example, at least parts of the examinations could be conducted nationwide. According to the literature, it is also positive to note that, in Switzerland and Austria, MC tests with type A pos. questions are used in the majority of cases to objectively test knowledge &#8211; including application knowledge &#8211; and evaluate it statistically. </Pgraph><Pgraph>However, an assessment of the examined competence using these forms of examination is only possible if a detailed insight into the examinations is conducted and their results can be provided. The preparation of written examinations is often underestimated, and it is time-consuming, as review processes must take place in terms of content, formal language and (medical) didactics in order to guarantee the unambiguity of the answers provided. The workload is mainly shifted to the preparation phase (cf. Gerhard-Szep) <TextLink reference="18"></TextLink>. In addition, ethical and cultural questions are often avoided when questions are created, since context-rich questions are difficult to write (Frederiksen 1984, cited from Epstein) <TextLink reference="20"></TextLink>. Swing et al. generally recommend the use of regular examiner training as well as the use of expert groups that regularly critically question the examination method used <TextLink reference="43"></TextLink>. Application knowledge does not have to be examined in writing, but it can also be examined in a structured, oral way. In addition to application knowledge, structured oral assessments can evaluate clinical decision making, professional thinking and self-confidence <TextLink reference="30"></TextLink>. It should be borne in mind that every structured oral assessment is associated with high costs due to the high space and personnel requirements. Blueprinting and the creation of an expectation horizon are also necessary. Duration, number and experience of the examiners have a direct influence on the quality criteria of the structured oral assessment (Roloff 2016, cited after Gerhard-Szep <TextLink reference="18"></TextLink>). Examiner training can help to raise awareness and reduce the psychological sources of error (see Kugler 2007 <TextLink reference="29"></TextLink>) to which examiners are unconsciously subject. Here, resistance must be expected from previous examiners, who have tested for years without having been trained to do so.</Pgraph><Pgraph>In Germany, oral examinations are conducted in an unstructured manner, although the German Medical Association expressly emphasises on its website that the continuing education designation serves as proof of the acquired competence and quality assurance of patient care and citizen orientation <TextLink reference="44"></TextLink>. The current specialist examinations in Germany therefore do not meet this requirement, as unstructured oral assessments do not fulfil the required quality criteria (also see table 2 <ImgLink imgNo="2" imgType="table"/>). It can therefore only be assumed that the UMP has been developed following a tradition and has not yet been subject to a critical review. Therefore, the unstructured oral assessments cannot be recommended. In order to better fulfil their responsibility for medical quality assurance in the future, a first step could be to establish contact with medical faculties that have been gathering experience in the implementation of structured examination methods for several years. An exchange of experience could also take place with experts from the DACH region who are already carrying out quality assurance for the specialist assessments used. In order to convert unstructured oral examinations into structured oral examinations at short notice, the regional medical associations in Germany could get in touch with colleagues trained in medical didactics to conduct examiner training on site. Flum also emphasises the aspect of quality assurance by saying that it would be helpful to standardise competences and testing methods in postgraduate medical training in general medicine within the EU in order to ensure the quality of treatment and patient safety (45). Likewise, specialist assessments should be seen as an instrument for regulating the content of continuing education and should meet the actual care needs of the population as well as the learning objectives and curriculum <TextLink reference="45"></TextLink>.</Pgraph><Pgraph>A recommendation with regard to a best practice specialist assessment is made against the background that, so far, only a few articles have taken a stand on assessment methods in the field of postgraduate medical education. A combined use of assessment methods (triangulation) is indispensable in order to be able to cover the necessary competence spectrum. Likewise, the following should be used and documented: obligatory blueprinting (Dauphinee 1994, cited from Wass), the preparation of questions and horizon of expectations in advance, a sufficient number of questions&#47;tasks, quality assurance measures relating to the preparation and evaluation of examination questions&#47;tasks, examination feedback (Gronlund 1998, cited from Norcini) and the most cost-effective assessment methods possible. These recommendations are supported by numerous publications <TextLink reference="1"></TextLink>, <TextLink reference="37"></TextLink>, <TextLink reference="46"></TextLink>. Caraccio et al. emphasise that different assessment methods should be combined so that the competence level of continuing training assistants can be assessed (Caraccio 2013, quoted from Flum <TextLink reference="45"></TextLink>. Taylor et al. point to a necessary standardisation of specialist assessments, the costs of which must, however, be considered (Taylor 1998, cited after Flum <TextLink reference="46"></TextLink>). David et al. and Adler et al. rightly discuss at this point that costs incurred in the context of continuing training must be reflected in the Diagnosis Related Group (DRG) system <TextLink reference="47"></TextLink>, <TextLink reference="48"></TextLink>. The necessary use of blueprinting in the field of postgraduate medical education is supported by Wass et al. In order to optimise learning success during postgraduate medical education, competences should be continuously recorded using various methods and feedback given through formative assessments (e.g. Mini Clinical Examination (Mini-CEX), Direct Observation of Procedural Skills (DOPS), Portfolios etc.) <TextLink reference="1"></TextLink>, <TextLink reference="49"></TextLink>. Competency-based curricula should take into account how knowledge, skills and attitudes are tested at the highest examination level: &#8220;does&#8221;, according to Miller (Miller 1990 <TextLink reference="50"></TextLink>). Examinations should be competence-based <TextLink reference="11"></TextLink>. Currently, so-called EPAs (Entrustable Professional Activities) are increasingly being used to support curriculum development and test new ways of competence-based learning and testing <TextLink reference="51"></TextLink>. Such a professional activity (EPA) could be, for example, the identification of an emergency patient on a normal ward and the initial assessment and initiation of necessary medical measures. A special feature of the EPA approach is the assessment of the learner on the basis of the presumed need for supervision (&#8220;entrustment&#8221;). The use of EPAs is often intuitively attractive for clinically active physicians, but their potential, including existing challenges (see also literature on workplace-based assessments <TextLink reference="51"></TextLink>, must be further investigated before the replacement of quality-assured summative specialist examinations could be considered. </Pgraph><Pgraph>On the one hand, this work is certainly limited by the fact that the data researched on the Internet can only be presented descriptively. On the other hand, continuing education curricula, the implementation of continuing education and the design of examinations are closely interlinked in the sense of &#8220;constructive alignment&#8221;.  A further limitation is therefore that, in this article, we have primarily dealt with the presentation of the examinations used in the DACH region and that curricula on further specialist training could only be mentioned in passing. However, a follow-up article could explain the different curricula on further specialist training and their implementation within the DACH region. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>Diese Arbeit geht der Frage nach, welche Facharztmethoden in der DACH-Region eingesetzt werden. Zudem werden die eingesetzten Pr&#252;fungsmethoden kritisch betrachtet und basierend auf der aktuellen Literatur Empfehlungen zur Weiterentwicklung der Facharztpr&#252;fungen beschrieben. </Pgraph><SubHeadline2>Eingesetzte Pr&#252;fungsmethoden</SubHeadline2><Pgraph>Mehr als 50&#37; der Facharztpr&#252;fungen werden in der Schweiz in Form von MC-Pr&#252;fungen durchgef&#252;hrt. Die Fachgebiete An&#228;sthesiologie, Allergologie&#47;Immunologie sowie Gef&#228;&#223;chirurgie werden in Verbindung mit der European Union of Medical Specialists (UEMS) gepr&#252;ft. Weitere Fachbereiche planen dies. Sieben verschiedene MC-Fragen Typen werden eingesetzt, ebenso der SAQ, Freitextpr&#252;fungen (nicht n&#228;her spezifiziert) sowie der SQT. Auch schriftliche Arbeiten, die SMP, praktische Pr&#252;fungen und eine OSCE werden genutzt. Insgesamt haben 50&#37; der Schweizer Facharztpr&#252;fungen einen praktischen Anteil (vgl. Anhang 1 <AttachmentLink attachmentNo="1"/> und Anhang 2 <AttachmentLink attachmentNo="2"/>).</Pgraph><Pgraph>In &#214;sterreich werden 25&#37; der Facharztpr&#252;fungen als schriftliche Pr&#252;fungen (MC-Fragen) durchgef&#252;hrt. Zwei Fachgebiete pr&#252;fen in Verbindung mit der UEMS. SAQ und SMP sind ebenfalls verwandte Pr&#252;fungsformen. Ein Blueprinting wird regelhaft eingesetzt. Eine praktische Pr&#252;fung gibt es bislang nicht (vgl. Anhang 2 <AttachmentLink attachmentNo="2"/> und Anhang 3 <AttachmentLink attachmentNo="3"/>). </Pgraph><Pgraph>In Deutschland findet fl&#228;chendeckend eine UMP statt, die als &#8222;kollegiales Fachgespr&#228;ch&#8220; bezeichnet wird (vgl. Anhang 4 <AttachmentLink attachmentNo="4"/>). </Pgraph><SubHeadline2>Kritische Betrachtung und Empfehlungen zu Weiterentwicklung der Facharztpr&#252;fungen</SubHeadline2><Pgraph>Positiv zu bewerten ist, dass in der Schweiz bereits 50&#37; der Facharztpr&#252;fungen einen praktischen Pr&#252;fungsanteil haben. Um im Rahmen der Facharztpr&#252;fung auch praktische und kommunikative Kompetenzen pr&#252;fen zu k&#246;nnen, sollte eine praktische, Kommunikations- und Kompetenzorientierte Pr&#252;fung, zus&#228;tzlich zu einer wissensorientierten Pr&#252;fungsmethode (schriftlich&#47;SMP), eingesetzt werden. Das OSCE-Format k&#246;nnte hier zum Einsatz kommen. Zur Kostenreduktion k&#246;nnten z.B.  zumindest Anteile der Pr&#252;fungen landesweit durchgef&#252;hrt werden. </Pgraph><Pgraph>Zudem ist anhand der Literatur positiv zu werten, dass in der Schweiz und in &#214;sterreich MC-Pr&#252;fungen mit Typ A pos. Fragen in der Mehrzahl genutzt werden, um Wissen inkl. Anwendungswissen objektiv zu &#252;berpr&#252;fen und teststatistisch auszuwerten. Eine Beurteilung der &#252;berpr&#252;ften Kompetenz anhand dieser Pr&#252;fungsformen ist jedoch nur dann m&#246;glich, wenn ein detaillierter Einblick in die durchgef&#252;hrten Pr&#252;fungen und deren Ergebnisse erm&#246;glicht werden kann. Die Vorbereitung von schriftlichen Pr&#252;fungen wird h&#228;ufig untersch&#228;tzt und ist zeitaufwendig, da sowohl inhaltliche als auch formal-sprachliche und (medizin-)didaktische Review-Prozesse stattfinden m&#252;ssen, um die Eindeutigkeit der L&#246;sungen zu garantieren. Der Arbeitsaufwand wird hierbei vor allem in die Erstellungsphase verlagert (vgl. Gerhard-Szep <TextLink reference="18"></TextLink>). Zus&#228;tzlich werden ethische und kulturelle Fragestellungen bei der Fragenerstellung h&#228;ufig vermieden, da kontextreiche Fragen schwierig zu schreiben sind (Frederiksen 1984, zitiert nach Epstein) <TextLink reference="20"></TextLink>. Swing et al. empfehlen hier generell den Einsatz von regelm&#228;&#223;igen Pr&#252;ferschulungen sowie den Einsatz von Expertengruppen, die die eingesetzte Pr&#252;fungsmethode regelm&#228;&#223;ig kritisch hinterfragen <TextLink reference="43"></TextLink>. Anwendungswissen kann nicht nur schriftlich, sondern auch strukturiert m&#252;ndlich gepr&#252;ft werden. Neben Anwendungswissen kann eine SMP klinische Entscheidungsfindung, professionelles Denken, Selbstvertrauen und Selbstbewusstsein bewerten <TextLink reference="30"></TextLink>. Zu Bedenken ist, dass jede SMP durch den hohen Raum- und Personalbedarf mit hohen Kosten verbunden ist. Blueprinting und die Erstellung eines Erwartungshorizontes sind ebenfalls erforderlich. Dauer, Anzahl und Erfahrung der Pr&#252;fer haben einen direkten Einfluss auf G&#252;tekriterien der SMP (Roloff 2016, zitiert nach Gerhard-Szep) <TextLink reference="18"></TextLink>. Eine Pr&#252;ferschulung kann psychologische Fehlerquellen (siehe Kugler 2007 <TextLink reference="29"></TextLink>), denen Pr&#252;fer unbewusst unterliegen, bewusstmachen und reduzieren helfen. Hier muss mit Widerstand der bisherigen Pr&#252;fer gerechnet werden, die jahrelang gepr&#252;ft haben, ohne dahingehend geschult worden zu sein. </Pgraph><Pgraph>In Deutschland wird unstrukturiert m&#252;ndlich gepr&#252;ft, obwohl die Bundes&#228;rztekammer ausdr&#252;cklich auf ihrer Webseite hervorhebt, dass die Weiterbildungsbezeichnung als Nachweis f&#252;r die erworbene Kompetenz und der Qualit&#228;tssicherung der Patientenversorgung und der B&#252;rgerorientierung dient <TextLink reference="44"></TextLink>. Diesem Anspruch werden die aktuellen Facharztpr&#252;fungen in Deutschland also nicht gerecht, da UMP nicht die erforderlichen Qualit&#228;tskriterien erf&#252;llen (vgl. auch Tabelle 2  <ImgLink imgNo="2" imgType="table"/>). Man kann daher nur vermuten, dass die UMP, einer Tradition folgend, entwickelt und bislang keiner kritischen &#220;berpr&#252;fung unterzogen wurde. Sie UMP kann jedoch nicht empfohlen werden, wenn Landes&#228;rztekammern ihrer Verantwortung f&#252;r die medizinische Qualit&#228;tssicherung zuk&#252;nftig besser gerecht werden wollen. Ein erster Schritt k&#246;nnte darin liegen, dass sie mit medizinischen Fakult&#228;ten in Kontakt treten, welche bereits seit einigen Jahren Erfahrungen in Bezug auf die Implementierung von strukturierten Pr&#252;fungsmethoden gesammelt haben. Auch k&#246;nnte ein Erfahrungsaustausch mit Experten aus der DACH-Region erfolgen, die bereits eine Qualit&#228;tssicherung der eingesetzten Facharztpr&#252;fungen durchf&#252;hren. Um unstrukturiert m&#252;ndliche Pr&#252;fungen kurzfristig in strukturiert m&#252;ndliche Pr&#252;fungen umzuwandeln, k&#246;nnten in Deutschland die Landes&#228;rztekammern medizindidaktisch geschulte Kollegen bitten, Pr&#252;ferschulungen vor Ort durchzuf&#252;hren. Flum betont den Aspekt der Qualit&#228;tssicherung ebenfalls, indem sie sagt, dass es, zur Sicherstellung der Behandlungsqualit&#228;t und Patientensicherheit, hilfreich w&#228;re, Kompetenzen und Pr&#252;fungsmethoden in der Weiterbildung Allgemeinmedizin innerhalb der EU zu standardisieren <TextLink reference="45"></TextLink>. Ebenso sollen Facharztpr&#252;fungen als ein Instrument zur Regulation der Inhalte der Weiterbildung angesehen werden und dem tats&#228;chlichen Versorgungsbedarf der Bev&#246;lkerung sowie den Lernzielen und dem Curriculum gerecht werden <TextLink reference="45"></TextLink>. </Pgraph><Pgraph>Eine Empfehlung in Bezug auf eine Best Practice Facharztpr&#252;fung erfolgt vor dem Hintergrund, dass bislang nur vereinzelt Artikel zu Pr&#252;fungsmethoden im Bereich der Weiterbildung Stellung bezogen. Ein kombinierter Einsatz von Pr&#252;fungsmethoden ist unerl&#228;sslich (Triangulation), um das notwendige Kompetenzspektrum abdecken zu k&#246;nnen. Ebenfalls sollte ein obligates Blueprinting (Dauphinee 1994, zitiert nach Wass), die Erstellung von Fragen und des Erwartungshorizontes vorab, eine ausreichende Anzahl an Fragen&#47;Aufgaben, Ma&#223;nahmen der Qualit&#228;tssicherung in Bezug auf Erstellung und Auswertung von Pr&#252;fungsfragen&#47;Aufgaben, der Einsatz von Pr&#252;fungsfeedback (Gronlund 1998, zitiert nach Norcini) sowie der Einsatz m&#246;glichst kosteneffizienter Pr&#252;fungsmethoden eingesetzt und dokumentiert werden. Unterst&#252;tzt werden diese Empfehlungen durch zahlreiche Publikationen <TextLink reference="1"></TextLink>, <TextLink reference="37"></TextLink>, <TextLink reference="46"></TextLink>. Caraccio et al. betonen, dass verschiedene Pr&#252;fungsformen zu kombinieren seien, damit das Kompetenzniveau von Weiterbildungsassistenten eingesch&#228;tzt werden kann (Caraccio 2013, zitiert nach Flum <TextLink reference="45"></TextLink>). Taylor et al. weisen auf eine notwendige Standardisierung von Facharztpr&#252;fungen hin, deren Kosten allerdings ber&#252;cksichtigt werden m&#252;ssten (Taylor 1998, zitiert nach Flum <TextLink reference="45"></TextLink>). David et al. und Adler et al. diskutieren an dieser Stelle zu Recht, dass Kosten, die im Rahmen der Weiterbildung entstehen, durch das DRG System abgebildet sein m&#252;ssten <TextLink reference="47"></TextLink>, <TextLink reference="48"></TextLink>. Der notwendige Einsatz von Blueprinting im Bereich der postgraduierten Weiterbildung wird durch Wass et al. unterst&#252;tzt. Um den Lernerfolg bereits w&#228;hrend der Weiterbildung zu optimieren, sollten Kompetenzen auch kontinuierlich anhand verschiedener Methoden erfasst und Feedback anhand formativer Pr&#252;fungen gegeben werden (z.B. Mini Clinical Examination (Mini-CEX), Direct Observation of Procedural Skills (DOPS), Portfolios etc.) <TextLink reference="1"></TextLink>, <TextLink reference="49"></TextLink>. Kompetenzbasierte Curricula sollten ber&#252;cksichtigen, wie Wissen, Fertigkeiten und Haltungen auf der h&#246;chsten Pr&#252;fungsebene &#8222;does&#8220; nach Miller (Miller 1990) gepr&#252;ft werden <TextLink reference="50"></TextLink>. Pr&#252;fungen sollten kompetenzbasiert sein <TextLink reference="11"></TextLink>. Aktuell werden zunehmend  sogenannte EPAs (Entrustable Professional Activities) genutzt,  um die Curriculumsentwicklung zu unterst&#252;tzen und neue Wege des kompentenzbasierten Lernens und Pr&#252;fens zu erproben <TextLink reference="51"></TextLink>. Eine solche professionelle Aktivit&#228;t (EPA) k&#246;nnte beispielsweise das Erkennen eines Notfallpatienten auf der Normalstation und die initiale Beurteilung und das Einleiten notwendiger medizinischer Ma&#223;nahmen sein. Eine Besonderheit des EPA-Ansatzes ist die Beurteilung des Lernenden anhand der vermuteten Supervisionsnotwendigkeit (&#8222;Entrustment&#8220;). Der Einsatz von EPAs ist f&#252;r klinisch t&#228;tige &#196;rzte h&#228;ufig intuitiv attraktiv, allerdings muss das Potential inkl. der bestehenden Herausforderungen (vgl. auch die Literatur zu arbeitsplatzbasierten Assessments weiter untersucht werden <TextLink reference="51"></TextLink>, bevor ein Ersatz von qualit&#228;tsgesicherten summativen Facharztpr&#252;fungen dadurch erwogen werden k&#246;nnte. </Pgraph><Pgraph>Limitiert ist diese Arbeit zum einen sicherlich dadurch, dass die im Internet recherchierten Daten nur deskriptiv dargestellt werden k&#246;nnen. Zum anderen sind Weiterbildungscurricula, die Durchf&#252;hrung der Weiterbildung sowie die Gestaltung von Pr&#252;fungen eng miteinander im Sinne des &#8222;Constructive Alignment&#8220; verzahnt.  Eine weitere Limitation ist daher, dass wir in diesem Artikel vornehmlich auf die Darstellung der eingesetzten Pr&#252;fungen in der DACH &#8211; Region eingegangen sind und Weiterbildungscurricula nur am Rande erw&#228;hnt werden konnten. Ein Folgeartikel k&#246;nnte jedoch die unterschiedlichen Weiterbildungscurricula und deren Umsetzung innerhalb der DACH-Region erl&#228;utern. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusions">
      <MainHeadline>Conclusions</MainHeadline><Pgraph>In the DACH region, the organisation of specialist assessments, the assessment methods used and the quality assurance measures are very different. In contrast to Germany, structured and standardised specialist assessment methods are already used in Austria and Switzerland &#8211; as well as practical examinations in the latter. If specialist assessments are to ensure that specialist doctors have the necessary competences for patient care, they must also be designed in such a way that they can actually test competences. This currently appears not to be the case in all specialist areas in Germany, but also in most specialist areas in Austria and Switzerland. Therefore, in order to ensure the quality of postgraduate medical training, it is necessary that even more attention is paid in the three countries to the fact that summative specialist assessments also examine the intended competences of the prospective specialists. A combination of a written examination with a practical examination (e.g. OSCE) is currently recommended, as this not only tests knowledge but also other competences including practical and communicative skills (see table 2 <ImgLink imgNo="2" imgType="table"/>).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Schlussfolgerung">
      <MainHeadline>Schlussfolgerung</MainHeadline><Pgraph>In der DACH-Region sind die Organisation von Facharztpr&#252;fungen, die eingesetzten Pr&#252;fungsmethoden und Qualit&#228;tssicherungsma&#223;nahmen sehr unterschiedlich. In &#214;sterreich und der Schweiz kommen - im Gegensatz zu Deutschland - bereits strukturierte und standardisierte Facharztpr&#252;fungsmethoden zum Einsatz, in der Schweiz auch praktische Pr&#252;fungen. Wenn Facharztpr&#252;fungen sicherstellen sollen, dass die Fach&#228;rzte &#252;ber die notwendigen Kompetenzen zur Patientenversorgung verf&#252;gen, m&#252;ssten diese auch derart gestaltet sein, dass sie Kompetenzen auch tats&#228;chlich abpr&#252;fen k&#246;nnen. Dies erscheint aktuell in allen Fachbereichen in Deutschland, aber auch in den meisten Fachbereichen in &#214;sterreich und der Schweiz, noch nicht der Fall zu sein. Daher ist es notwendig, um die Qualit&#228;t der Weiterbildung zu sichern, dass in den drei L&#228;ndern noch mehr darauf geachtet wird, dass eine summative Facharztpr&#252;fung die vorgesehenen Kompetenzen der prospektiven Fach&#228;rzte auch &#252;berpr&#252;ft. Empfohlen wird derzeit eine Kombination einer schriftlichen Pr&#252;fung mit einer praktischen Pr&#252;fung (z.B. OSCE), da auf diese Weise nicht nur Wissen, sondern auch weitere Kompetenzen inkl. praktischer und kommunikativer Fertigkeiten gepr&#252;ft werden k&#246;nnen (vgl. Tabelle 2 <ImgLink imgNo="2" imgType="table"/>).</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Acknowledgements">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>We thank Dr. med. Susanne Frankenhauser, MME, Dr. med. Uta Kr&#228;mer and Brian Webber for their constructive help in reviewing the manuscript. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Danksagung">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Wir danken Frau Dr. med. Susanne Frankenhauser, MME, Frau Dr. med. Uta Kr&#228;mer und Herrn Brian Webber f&#252;r die konstruktive Hilfe bei der Durchsicht des Manuskriptes. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph>Geschlechtergerechte Sprache: Aus Gr&#252;nden der besseren Lesbarkeit wird nachfolgend die m&#228;nnliche Anrede verwendet. S&#228;mtliche Personenbezeichnungen gelten gleicherma&#223;en f&#252;r beide Geschlechter.  </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Norcini J</RefAuthor>
        <RefAuthor>Anderson B</RefAuthor>
        <RefAuthor>Bollela V</RefAuthor>
        <RefAuthor>Burch V</RefAuthor>
        <RefAuthor>Costa MJ</RefAuthor>
        <RefAuthor>Duvivier R</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle>Criteria for good assessment: Consensus statement and recommendations from the Ottawa 2010 Conference</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>206-214</RefPage>
        <RefTotal>Norcini J, Anderson B, Bollela V, Burch V, Costa MJ, Duvivier R, et al. Criteria for good assessment: Consensus statement and recommendations from the Ottawa 2010 Conference. Med Teach. 2011;33(3):206-214. DOI: 10.3109&#47;0142159X.2011.551559</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2011.551559</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Newble D</RefAuthor>
        <RefTitle>Techniques for measuring clinical competence: objective structured clinical examinations</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>199-203</RefPage>
        <RefTotal>Newble D. Techniques for measuring clinical competence: objective structured clinical examinations. Med Educ. 2004;38(2):199-203. DOI: 10.1111&#47;j.1365-2923.2004.01755.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2004.01755.x</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Harden MR</RefAuthor>
        <RefAuthor>Stevenson M</RefAuthor>
        <RefAuthor>Downie WW</RefAuthor>
        <RefAuthor>Wilson GM</RefAuthor>
        <RefTitle>Assessment of clinical competence using objective structured examination</RefTitle>
        <RefYear>1975</RefYear>
        <RefJournal>Br Med J</RefJournal>
        <RefPage>447-451</RefPage>
        <RefTotal>Harden MR, Stevenson M, Downie WW, Wilson GM. Assessment of clinical competence using objective structured examination. Br Med J. 1975;1(5955):447-451. DOI: 10.1136&#47;bmj.1.5955.447</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1136&#47;bmj.1.5955.447</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefTitle>The assessment of professional competence: Developments, research and practical implications</RefTitle>
        <RefYear>1996</RefYear>
        <RefJournal>Adv Heal Sci Educ</RefJournal>
        <RefPage>41-67</RefPage>
        <RefTotal>van der Vleuten CP. The assessment of professional competence: Developments, research and practical implications. Adv Heal Sci Educ. 1996;1(1):41-67. DOI: 10.1007&#47;BF00596229</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;BF00596229</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Fabry G</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2008</RefYear>
        <RefBookTitle>Medizindidaktik: ein Handbuch f&#252;r die Praxis</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Fabry G. Medizindidaktik: ein Handbuch f&#252;r die Praxis. Mannheim: Huber; 2008.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefAuthor>Schuwirth LW</RefAuthor>
        <RefTitle>Assessing professional competence: From methods to programmes</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>309-317</RefPage>
        <RefTotal>van der Vleuten CP, Schuwirth LW. Assessing professional competence: From methods to programmes. Med Educ. 2005;39(3):309-317. DOI: 10.1111&#47;j.1365-2929.2005.02094.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2929.2005.02094.x</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Downing S</RefAuthor>
        <RefTitle>Validity: on the meaning ful interpretation of assessment data</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>830-837</RefPage>
        <RefTotal>Downing S. Validity: on the meaning ful interpretation of assessment data. Med Educ. 2003;37(9):830-837. DOI: 10.1046&#47;j.1365-2923.2003.01594.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1365-2923.2003.01594.x</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Ratnapalan S</RefAuthor>
        <RefAuthor>Hilliard R</RefAuthor>
        <RefTitle>Needs Assessment in Postgraduate Medical Education: A Review</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Med Educ Online</RefJournal>
        <RefPage>1-8</RefPage>
        <RefTotal>Ratnapalan S, Hilliard R. Needs Assessment in Postgraduate Medical Education: A Review. Med Educ Online. 2002;7(8):1-8. DOI: 10.3402&#47;meo.v7i.4542</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3402&#47;meo.v7i.4542</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Holmboe ES</RefAuthor>
        <RefAuthor>Sherbino J</RefAuthor>
        <RefAuthor>Long DM</RefAuthor>
        <RefAuthor>Swing SR</RefAuthor>
        <RefAuthor>Frank JR</RefAuthor>
        <RefTitle>The role of assessment in competency-based medical education</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>676-682</RefPage>
        <RefTotal>Holmboe ES, Sherbino J, Long DM, Swing SR, Frank JR. The role of assessment in competency-based medical education. Med Teach. 2010;32(8):676-682. DOI: 10.3109&#47;0142159X.2010.500704</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2010.500704</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Bundes&#228;rztekammer</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>(Muster-)Weiterbildungsordnung 2018</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Bundes&#228;rztekammer. (Muster-)Weiterbildungsordnung 2018. Berlin: Bundes&#228;rztekammer; 2018. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;www.bundesaerztekammer.de&#47;aerzte&#47;aus-weiter-fortbildung&#47;weiterbildung&#47;muster-weiterbildungsordnung&#47;</RefTotal>
        <RefLink>https:&#47;&#47;www.bundesaerztekammer.de&#47;aerzte&#47;aus-weiter-fortbildung&#47;weiterbildung&#47;muster-weiterbildungsordnung&#47;</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Frank J</RefAuthor>
        <RefAuthor>Snell L</RefAuthor>
        <RefAuthor>Sherbino J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2015</RefYear>
        <RefBookTitle>CanMEDS 2015 Physician Competency Framework</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Frank J, Snell L, Sherbino J. CanMEDS 2015 Physician Competency Framework. Ottawa: Royal College of Physicians and Surgeons of Canada; 2015.</RefTotal>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Kadmon M</RefAuthor>
        <RefAuthor>Ganschow P</RefAuthor>
        <RefAuthor>Gillen S</RefAuthor>
        <RefAuthor>Hofmann HS</RefAuthor>
        <RefAuthor>Braune N</RefAuthor>
        <RefAuthor>Johannink J</RefAuthor>
        <RefAuthor>K&#252;hn P</RefAuthor>
        <RefAuthor>Buhr HJ</RefAuthor>
        <RefAuthor>Berberat PO</RefAuthor>
        <RefTitle>Der kompetente Chirurg</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Chirurg</RefJournal>
        <RefPage>859-868</RefPage>
        <RefTotal>Kadmon M, Ganschow P, Gillen S, Hofmann HS, Braune N, Johannink J, K&#252;hn P, Buhr HJ, Berberat PO. Der kompetente Chirurg. Chirurg. 2013;84(10):859-868. DOI: 10.1007&#47;s00104-013-2531-y</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s00104-013-2531-y</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Jilg S</RefAuthor>
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Berberat P</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefAuthor>Breckwoldt J</RefAuthor>
        <RefTitle>How do Supervising Clinicians of a University Hospital and Associated Teaching Hospitals Rate the Relevance of the Key Competencies within the CanMEDS Roles Framework in Respect to Teaching in Clinical Clerkships&#63;</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc33</RefPage>
        <RefTotal>Jilg S, M&#246;ltner A, Berberat P, Fischer MR, Breckwoldt J. How do Supervising Clinicians of a University Hospital and Associated Teaching Hospitals Rate the Relevance of the Key Competencies within the CanMEDS Roles Framework in Respect to Teaching in Clinical Clerkships&#63; GMS Z Med Ausbild. 2015;32(3):Doc33. DOI: 10.3205&#47;zma000975</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma000975</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>B&#252;rgi H</RefAuthor>
        <RefAuthor>RindlisbacherB</RefAuthor>
        <RefAuthor>Bader C</RefAuthor>
        <RefAuthor>Bloch R</RefAuthor>
        <RefAuthor>Bosman F</RefAuthor>
        <RefAuthor>Gasser C</RefAuthor>
        <RefAuthor>Gerke W</RefAuthor>
        <RefAuthor>Humair JP</RefAuthor>
        <RefAuthor>Im Hof V</RefAuthor>
        <RefAuthor>Kaiser H</RefAuthor>
        <RefAuthor>Lefebvre D</RefAuthor>
        <RefAuthor>Schl&#228;ppi P</RefAuthor>
        <RefAuthor>Sottas B</RefAuthor>
        <RefAuthor>Spinas GA</RefAuthor>
        <RefAuthor>Stuck AE</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>Swiss Catalogue of Learning Objectives for Undergraduate Medical Training</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>B&#252;rgi H, RindlisbacherB, Bader C, Bloch R, Bosman F, Gasser C, Gerke W, Humair JP, Im Hof V, Kaiser H, Lefebvre D, Schl&#228;ppi P, Sottas B, Spinas GA, Stuck AE. Swiss Catalogue of Learning Objectives for Undergraduate Medical Training. Genf: Joint Conference of Swiss Medical Faculties (SMIFK); 2007. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.smifk.ch</RefTotal>
        <RefLink>http:&#47;&#47;www.smifk.ch</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Case SM</RefAuthor>
        <RefAuthor>Swanson DB</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2002</RefYear>
        <RefBookTitle>Constructing Written Test Questions For the Basic and Clinical Sciences</RefBookTitle>
        <RefPage>112</RefPage>
        <RefTotal>Case SM, Swanson DB. Constructing Written Test Questions For the Basic and Clinical Sciences. Philadelphia: National Board of Medical Examiners; 2002. p.112. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.nbme.org&#47;PDF&#47;ItemWriting&#95;2003&#47;2003IWGwhole.pdf</RefTotal>
        <RefLink>http:&#47;&#47;www.nbme.org&#47;PDF&#47;ItemWriting&#95;2003&#47;2003IWGwhole.pdf</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Schweizer Institut f&#252;r &#228;rztliche Weiter- und Fortbildung</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2017</RefYear>
        <RefBookTitle>Fortbildung: Investition in die Zukunft</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Schweizerisches Institut f&#252;r &#228;rztliche Weiter- und Fortbildung. Fortbildung: Investition in die Zukunft. Bern: Schweizer Institut f&#252;r &#228;rztliche Weiter- und Fortbildung; 2017.</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Schweizer Institut f&#252;r &#228;rztliche Weiter- und Fortbildung</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>Weiterbildungsg&#228;nge f&#252;r weitere sieben Jahre akkreditiert</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Schweizer Institut f&#252;r &#228;rztliche Weiter- und Fortbildung. Weiterbildungsg&#228;nge f&#252;r weitere sieben Jahre akkreditiert. Bern: Schweizer Institut f&#252;r &#228;rztliche Weiter- und Fortbildung; 2018.</RefTotal>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Gerhard-Szep S</RefAuthor>
        <RefAuthor>Guentsch A</RefAuthor>
        <RefAuthor>Pospiech P</RefAuthor>
        <RefAuthor>Soehnel A</RefAuthor>
        <RefAuthor>Scheutzel P</RefAuthor>
        <RefAuthor>Wassmann T</RefAuthor>
        <RefAuthor>Zahn T</RefAuthor>
        <RefTitle>Assessment formats in dental medicine: An overview</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>GMS J Med Educ</RefJournal>
        <RefPage>Doc65</RefPage>
        <RefTotal>Gerhard-Szep S, Guentsch A, Pospiech P, Soehnel A, Scheutzel P, Wassmann T, Zahn T. Assessment formats in dental medicine: An overview. GMS J Med Educ. 2016;33(4):Doc65. DOI: 10.3205&#47;zma001064</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma001064</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Chenot JF</RefAuthor>
        <RefAuthor>Ehrhardt M</RefAuthor>
        <RefTitle>Objective structured clinical examination (OSCE) in der medizinischen Ausbildung: Eine Alternative zur Klausur</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Z Allgemeinmed</RefJournal>
        <RefPage>437-442</RefPage>
        <RefTotal>Chenot JF, Ehrhardt M. Objective structured clinical examination (OSCE) in der medizinischen Ausbildung: Eine Alternative zur Klausur. Z Allgemeinmed. 2003;79(9):437-442. DOI: 10.1055&#47;s-2003-43064</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1055&#47;s-2003-43064</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Epstein RM</RefAuthor>
        <RefTitle>Medical education - Assessment in medical education</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>N Engl J Med</RefJournal>
        <RefPage>387-396</RefPage>
        <RefTotal>Epstein RM. Medical education - Assessment in medical education. N Engl J Med. 2007;356(4):387-396. DOI: 10.1056&#47;NEJMra054784</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1056&#47;NEJMra054784</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Rademakers J</RefAuthor>
        <RefAuthor>Ten Cate TJ</RefAuthor>
        <RefAuthor>B&#228;r PR</RefAuthor>
        <RefTitle>Progress testing with short answer questions</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>578-582</RefPage>
        <RefTotal>Rademakers J, Ten Cate TJ, B&#228;r PR. Progress testing with short answer questions. Med Teach. 2005;27(7):578-582. DOI: 10.1080&#47;01421590500062749</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;01421590500062749</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Smith S</RefAuthor>
        <RefAuthor>Kogan JR</RefAuthor>
        <RefAuthor>Berman NB</RefAuthor>
        <RefAuthor>Dell MS</RefAuthor>
        <RefAuthor>Brock DM</RefAuthor>
        <RefAuthor>Robins LS</RefAuthor>
        <RefTitle>The development and preliminary validation of a rubric to assess medical students&#39; written summary statements in virtual patient cases</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>94-100</RefPage>
        <RefTotal>Smith S, Kogan JR, Berman NB, Dell MS, Brock DM, Robins LS. The development and preliminary validation of a rubric to assess medical students&#39; written summary statements in virtual patient cases. Acad Med. 2016;91(1):94-100. DOI: 10.1097&#47;ACM.0000000000000800</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.0000000000000800</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Lubarsky S</RefAuthor>
        <RefAuthor>Dory V</RefAuthor>
        <RefAuthor>Duggan P</RefAuthor>
        <RefAuthor>Gagnon R</RefAuthor>
        <RefAuthor>Charlin B</RefAuthor>
        <RefTitle>Script concordance testing: From theory to practice: AMEE Guide No. 75</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>184-193</RefPage>
        <RefTotal>Lubarsky S, Dory V, Duggan P, Gagnon R, Charlin B. Script concordance testing: From theory to practice: AMEE Guide No. 75. Med Teach. 2013;35(3):184-193. DOI: 10.3109&#47;0142159X.2013.760036</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2013.760036</RefLink>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Charlin B</RefAuthor>
        <RefAuthor>Roy L</RefAuthor>
        <RefAuthor>Brailovsky C</RefAuthor>
        <RefAuthor>Goulet F</RefAuthor>
        <RefAuthor>van der Vleuten C</RefAuthor>
        <RefTitle>The Script Concordance Test: A Tool to Assess the Reflective Clinician</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Teach Learn Med</RefJournal>
        <RefPage>189-195</RefPage>
        <RefTotal>Charlin B, Roy L, Brailovsky C, Goulet F, van der Vleuten C. The Script Concordance Test: A Tool to Assess the Reflective Clinician. Teach Learn Med. 2000;12(4):189-195. DOI: 10.1207&#47;S15328015TLM1204&#95;5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1207&#47;S15328015TLM1204&#95;5</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Lubarsky S</RefAuthor>
        <RefAuthor>Charlin B</RefAuthor>
        <RefAuthor>Cook DA</RefAuthor>
        <RefAuthor>Chalk C</RefAuthor>
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefTitle>Script concordance testing: A review of published validity evidence</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>329-338</RefPage>
        <RefTotal>Lubarsky S, Charlin B, Cook DA, Chalk C, van der Vleuten CP. Script concordance testing: A review of published validity evidence. Med Educ. 2011;45(4):329-338. DOI: 10.1111&#47;j.1365-2923.2010.03863.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2010.03863.x</RefLink>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Lineberry M</RefAuthor>
        <RefAuthor>Kreiter CD</RefAuthor>
        <RefAuthor>Bordage G</RefAuthor>
        <RefTitle>Threats to validity in the use and interpretation of script concordance test scores</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1175-1183</RefPage>
        <RefTotal>Lineberry M, Kreiter CD, Bordage G. Threats to validity in the use and interpretation of script concordance test scores. Med Educ. 2013;47(12):1175-1183. DOI: 10.1111&#47;medu.12283</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;medu.12283</RefLink>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Dory V</RefAuthor>
        <RefAuthor>Gagnon R</RefAuthor>
        <RefAuthor>Vanpee D</RefAuthor>
        <RefAuthor>Charlin B</RefAuthor>
        <RefTitle>How to construct and implement script concordance tests: Insights from a systematic review</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>552-563</RefPage>
        <RefTotal>Dory V, Gagnon R, Vanpee D, Charlin B. How to construct and implement script concordance tests: Insights from a systematic review. Med Educ. 2012;46(6):552-563. DOI: 10.1111&#47;j.1365-2923.2011.04211.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2011.04211.x</RefLink>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Davis MH</RefAuthor>
        <RefAuthor>Karunathilake I</RefAuthor>
        <RefTitle>The place of the oral examination in today&#39;s assessment systems</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>294-297</RefPage>
        <RefTotal>Davis MH, Karunathilake I. The place of the oral examination in today&#39;s assessment systems. Med Teach. 2005;27(4):294-297. DOI: 10.1080&#47;01421590500126437</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;01421590500126437</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Kugler</RefAuthor>
        <RefTitle>M&#252;ndliche Pr&#252;fung Bankfachwirt</RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>M&#252;ndliche Pr&#252;fung Bankfachwirt</RefBookTitle>
        <RefPage>3-6</RefPage>
        <RefTotal>Kugler. M&#252;ndliche Pr&#252;fung Bankfachwirt. In: Schutz A, editor. M&#252;ndliche Pr&#252;fung Bankfachwirt. Wiesbaden: Gabler; 2007. p.3-6.</RefTotal>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Memon MA</RefAuthor>
        <RefAuthor>Joughin GR</RefAuthor>
        <RefAuthor>Memon B</RefAuthor>
        <RefTitle>Oral assessment and postgraduate medical examinations: Establishing conditions for validity, reliability and fairness</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Adv Heal Sci Educ</RefJournal>
        <RefPage>277-289</RefPage>
        <RefTotal>Memon MA, Joughin GR, Memon B. Oral assessment and postgraduate medical examinations: Establishing conditions for validity, reliability and fairness. Adv Heal Sci Educ. 2010;15(2):277-289. DOI: 10.1007&#47;s10459-008-9111-9</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s10459-008-9111-9</RefLink>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Lamping DL</RefAuthor>
        <RefTitle>Assessment in health psychology</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Can Psychol</RefJournal>
        <RefPage>121-139</RefPage>
        <RefTotal>Lamping DL. Assessment in health psychology. Can Psychol. 2007;26:121-139. DOI: 10.1037&#47;h0080022</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;h0080022</RefLink>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>Barrows HS</RefAuthor>
        <RefTitle>An overview of the uses of standardized patients for teaching and evaluating clinical skills</RefTitle>
        <RefYear>1993</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>443-451</RefPage>
        <RefTotal>Barrows HS. An overview of the uses of standardized patients for teaching and evaluating clinical skills. Acad Med. 1993;68(6):443-451. DOI: 10.1097&#47;00001888-199306000-00002</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00001888-199306000-00002</RefLink>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>Brannick MT</RefAuthor>
        <RefAuthor>Erol-Korkmaz HT</RefAuthor>
        <RefAuthor>Prewett M</RefAuthor>
        <RefTitle>A systematic review of the reliability of objective structured clinical examination scores</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1181-1189</RefPage>
        <RefTotal>Brannick MT, Erol-Korkmaz HT, Prewett M. A systematic review of the reliability of objective structured clinical examination scores. Med Educ. 2011;45(12):1181-1189. DOI: 10.1111&#47;j.1365-2923.2011.04075.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2011.04075.x</RefLink>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>Rushforth HE</RefAuthor>
        <RefTitle>Objective structured clinical examination (OSCE): Review of literature and implications for nursing education</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Nurse Educ Today</RefJournal>
        <RefPage>481-490</RefPage>
        <RefTotal>Rushforth HE. Objective structured clinical examination (OSCE): Review of literature and implications for nursing education. Nurse Educ Today. 2007;27:481-490. DOI: 10.1016&#47;j.nedt.2006.08.009</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.nedt.2006.08.009</RefLink>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Schellberg D</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Grundlegende quantitative Analysen medizinischer Pr&#252;fungen</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc53</RefPage>
        <RefTotal>M&#246;ltner A, Schellberg D, J&#252;nger J. Grundlegende quantitative Analysen medizinischer Pr&#252;fungen &#91;Basic quantitative analyses of medical examinations&#93;. GMS Z Med Ausbild. 2006;23(3):Doc53. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;en&#47;journals&#47;zma&#47;2006-23&#47;zma000272.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;en&#47;journals&#47;zma&#47;2006-23&#47;zma000272.shtml</RefLink>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Hays R</RefAuthor>
        <RefTitle>Assessment in medical education: roles for clinical teachers</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Clin Teach</RefJournal>
        <RefPage>23-27</RefPage>
        <RefTotal>Hays R. Assessment in medical education: roles for clinical teachers. Clin Teach. 2008;5(1):23-27. DOI: 10.1111&#47;j.1743-498X.2007.00165.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1743-498X.2007.00165.x</RefLink>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>J&#252;ngerJ</RefAuthor>
        <RefAuthor>Just I</RefAuthor>
        <RefTitle>Empfehlungender Gesellschaft f&#252;r Medizinische Ausbildungund des Medizinischen Fakult&#228;tentagsf&#252;r fakult&#228;tsinterne Leistungsnachweise w&#228;hrend des Studiums der Human-, Zahn- und Tiermedizin</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc34</RefPage>
        <RefTotal>J&#252;ngerJ, Just I. Empfehlungender Gesellschaft f&#252;r Medizinische Ausbildungund des Medizinischen Fakult&#228;tentagsf&#252;r fakult&#228;tsinterne Leistungsnachweise w&#228;hrend des Studiums der Human-, Zahn- und Tiermedizin &#91;Recommendations of the GermanSociety for Medical Education and the German Association of Medical Faculties regarding university-specific assessments during the study of human, dental and veterinary medicine&#93;. GMS Z Med Ausbild. 2014;31(3):Doc34. DOI: 10.3205&#47;zma000926</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma000926</RefLink>
      </Reference>
      <Reference refNo="38">
        <RefAuthor>Lynch DC</RefAuthor>
        <RefAuthor>Surdyk PM</RefAuthor>
        <RefAuthor>Eiser AR</RefAuthor>
        <RefTitle>Assessing professionalism: A review of the literature</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>366-373</RefPage>
        <RefTotal>Lynch DC, Surdyk PM, Eiser AR. Assessing professionalism: A review of the literature. Med Teach. 2004;26(4):366-373. DOI: 10.1080&#47;01421590410001696434</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;01421590410001696434</RefLink>
      </Reference>
      <Reference refNo="39">
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefAuthor>Verwijnen GM</RefAuthor>
        <RefTitle>Fifteen years of experience with progress testing in a problem-based learning curriculum</RefTitle>
        <RefYear>1996</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>103</RefPage>
        <RefTotal>van der Vleuten CP, Verwijnen GM. Fifteen years of experience with progress testing in a problem-based learning curriculum. Med Teach. 1996;18(2):103. DOI: 10.3109&#47;01421599609034142</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;01421599609034142</RefLink>
      </Reference>
      <Reference refNo="40">
        <RefAuthor>Pell G</RefAuthor>
        <RefAuthor>Fuller R</RefAuthor>
        <RefAuthor>Homer M</RefAuthor>
        <RefAuthor>Roberts T</RefAuthor>
        <RefAuthor> International Association for Medical Education</RefAuthor>
        <RefTitle>How to measure the quality of OSCE: a review of metrics</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>802-811</RefPage>
        <RefTotal>Pell G, Fuller R, Homer M, Roberts T; International Association for Medical Education. How to measure the quality of OSCE: a review of metrics. Med Teach. 2010;32(10):802-811. DOI: 10.3109&#47;0142159X.2010.507716</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2010.507716</RefLink>
      </Reference>
      <Reference refNo="41">
        <RefAuthor>Norcini JJ</RefAuthor>
        <RefTitle>Standard setting on educational tests</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>464-449</RefPage>
        <RefTotal>Norcini JJ. Standard setting on educational tests. Med Educ. 2003;37(5):464-449. DOI: 10.1046&#47;j.1365-2923.2003.01495.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1365-2923.2003.01495.x</RefLink>
      </Reference>
      <Reference refNo="42">
        <RefAuthor>Wood TJ</RefAuthor>
        <RefAuthor>Humphrey-Murto SM</RefAuthor>
        <RefAuthor>Norman GR</RefAuthor>
        <RefTitle>Standard setting in a small scale OSCE: A comparison of the modified borderline-group method and the borderline regression method</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Adv Heal Sci Educ Theory Pract</RefJournal>
        <RefPage>115-122</RefPage>
        <RefTotal>Wood TJ, Humphrey-Murto SM, Norman GR. Standard setting in a small scale OSCE: A comparison of the modified borderline-group method and the borderline regression method. Adv Heal Sci Educ Theory Pract. 2006;11(2):115-122. DOI: 10.1007&#47;s10459-005-7853-1</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s10459-005-7853-1</RefLink>
      </Reference>
      <Reference refNo="43">
        <RefAuthor>Swing SR</RefAuthor>
        <RefAuthor>Clyman SG</RefAuthor>
        <RefAuthor>Holmboe ES</RefAuthor>
        <RefAuthor>Williams RG</RefAuthor>
        <RefTitle>Advancing Resident Assessment in Graduate Medical Education</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>J Grad Med Educ</RefJournal>
        <RefPage>278-286</RefPage>
        <RefTotal>Swing SR, Clyman SG, Holmboe ES, Williams RG. Advancing Resident Assessment in Graduate Medical Education. J Grad Med Educ. 2009;1(2):278-286. DOI: 10.4300&#47;JGME-D-09-00010.1</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.4300&#47;JGME-D-09-00010.1</RefLink>
      </Reference>
      <Reference refNo="44">
        <RefAuthor>Bundes&#228;rztekammer</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2015</RefYear>
        <RefBookTitle>&#196;rztliche Ausbildung in Deutschland. Weiterbildung</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Bundes&#228;rztekammer. &#196;rztliche Ausbildung in Deutschland. Weiterbildung. Berlin: Bundes&#228;rztekammer; 2015. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.bundesaerztekammer.de&#47;aerzte&#47;aus-weiter-fortbildung&#47;ausbildung&#47;allgemeine-informationen-zum-medizinstudium&#47;&#35;c14521</RefTotal>
        <RefLink>http:&#47;&#47;www.bundesaerztekammer.de&#47;aerzte&#47;aus-weiter-fortbildung&#47;ausbildung&#47;allgemeine-informationen-zum-medizinstudium&#47;&#35;c14521</RefLink>
      </Reference>
      <Reference refNo="45">
        <RefAuthor>Flum E</RefAuthor>
        <RefAuthor>Maagaard R</RefAuthor>
        <RefAuthor>Godycki-Cwirko M</RefAuthor>
        <RefAuthor>Scarborough N</RefAuthor>
        <RefAuthor>Scherpbier N</RefAuthor>
        <RefAuthor>Ledig T</RefAuthor>
        <RefAuthor>Roos M</RefAuthor>
        <RefAuthor>Steinh&#228;user J</RefAuthor>
        <RefTitle>Assessing family medicine trainees--what can we learn from the European neighbours&#63;</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc21</RefPage>
        <RefTotal>Flum E, Maagaard R, Godycki-Cwirko M, Scarborough N, Scherpbier N, Ledig T, Roos M, Steinh&#228;user J. Assessing family medicine trainees--what can we learn from the European neighbours&#63; GMS Z Med Ausbild. 2015;32(2):Doc21. DOI: 10.3205&#47;zma000963</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma000963</RefLink>
      </Reference>
      <Reference refNo="46">
        <RefAuthor>Wass V</RefAuthor>
        <RefAuthor>van der Vleuten C</RefAuthor>
        <RefAuthor>Shatzer J</RefAuthor>
        <RefAuthor>Jones R</RefAuthor>
        <RefTitle>Assessment of clinical competence</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Lancet</RefJournal>
        <RefPage>945-949</RefPage>
        <RefTotal>Wass V, van der Vleuten C, Shatzer J, Jones R. Assessment of clinical competence. Lancet. 2001;357(9260):945-949. DOI: 10.1016&#47;S0140-6736(00)04221-5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;S0140-6736(00)04221-5</RefLink>
      </Reference>
      <Reference refNo="47">
        <RefAuthor>Adler G</RefAuthor>
        <RefAuthor>von dem Knesebeck J</RefAuthor>
        <RefAuthor>H&#228;nle MM</RefAuthor>
        <RefTitle>Qualit&#228;t der medizinischen Aus-, Fort- und Weiterbildung</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Z Evid Fortbild Qual Gesundhwes</RefJournal>
        <RefPage>235-243</RefPage>
        <RefTotal>Adler G, von dem Knesebeck J, H&#228;nle MM. Qualit&#228;t der medizinischen Aus-, Fort- und Weiterbildung. Z Evid Fortbild Qual Gesundhwes. 2008;102(4):235-243. DOI: 10.1016&#47;j.zefq.2008.04.004</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.zefq.2008.04.004</RefLink>
      </Reference>
      <Reference refNo="48">
        <RefAuthor>David DM</RefAuthor>
        <RefAuthor>Euteneier A</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefAuthor>Hahn EG</RefAuthor>
        <RefAuthor>Johannink J</RefAuthor>
        <RefAuthor>Kulike K</RefAuthor>
        <RefAuthor>Lauch R</RefAuthor>
        <RefAuthor>Lindhorst E</RefAuthor>
        <RefAuthor>Noll-Hussong M</RefAuthor>
        <RefAuthor>Pinilla S</RefAuthor>
        <RefAuthor>Weih M</RefAuthor>
        <RefAuthor>Wennekes V</RefAuthor>
        <RefTitle>Die Zukunft der &#228;rztlichen Weiterbildung in Deutschland - Positionspapier des Ausschusses Weiterbildung der Gesellschaft f&#252;r medizinische Ausbildung (GMA)</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc26</RefPage>
        <RefTotal>David DM, Euteneier A, Fischer MR, Hahn EG, Johannink J, Kulike K, Lauch R, Lindhorst E, Noll-Hussong M, Pinilla S, Weih M, Wennekes V. Die Zukunft der &#228;rztlichen Weiterbildung in Deutschland - Positionspapier des Ausschusses Weiterbildung der Gesellschaft f&#252;r medizinische Ausbildung (GMA). GMS Z Med Ausbild. 2013;30(2):Doc26. DOI: 10.3205&#47;zma000869</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma000869</RefLink>
      </Reference>
      <Reference refNo="49">
        <RefAuthor>Driessen E</RefAuthor>
        <RefAuthor>Scheele F</RefAuthor>
        <RefTitle>What is wrong with assessment in postgraduate training&#63; Lessons from clinical practice and educational research</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>569-574</RefPage>
        <RefTotal>Driessen E, Scheele F. What is wrong with assessment in postgraduate training&#63; Lessons from clinical practice and educational research. Med Teach. 2013;35(7):569-574. DOI: 10.3109&#47;0142159X.2013.798403</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2013.798403</RefLink>
      </Reference>
      <Reference refNo="50">
        <RefAuthor>Mulder H</RefAuthor>
        <RefAuthor>Ten Cate O</RefAuthor>
        <RefAuthor>Daalder R</RefAuthor>
        <RefAuthor>Berkvens J</RefAuthor>
        <RefTitle>Building a competency-based workplace curriculum around entrustable professional activities: The case of physician assistant training</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>e453-459</RefPage>
        <RefTotal>Mulder H, Ten Cate O, Daalder R, Berkvens J. Building a competency-based workplace curriculum around entrustable professional activities: The case of physician assistant training. Med Teach. 2010;32(10):e453-459. DOI: 10.3109&#47;0142159X.2010.513719</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2010.513719</RefLink>
      </Reference>
      <Reference refNo="51">
        <RefAuthor>O&#39;Dowd E</RefAuthor>
        <RefAuthor>Lydon S</RefAuthor>
        <RefAuthor>O&#39;Connor P</RefAuthor>
        <RefAuthor>Madden C</RefAuthor>
        <RefAuthor>Byrne D</RefAuthor>
        <RefTitle>A systematic review of 7 years of research on entrustable professional activities in graduate medical education, 2011-2018</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>234-249</RefPage>
        <RefTotal>O&#39;Dowd E, Lydon S, O&#39;Connor P, Madden C, Byrne D. A systematic review of 7 years of research on entrustable professional activities in graduate medical education, 2011-2018. Med Educ. 2019;53(3):234-249. DOI: 10.1111&#47;medu.13792</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;medu.13792</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: Overview of the key audit figures in the annual reports of the regional medical associations for the year 2017.</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: &#220;bersicht der Pr&#252;fungskennzahlen mach Gesch&#228;ftsberichten der Landes&#228;rztekammern f&#252;r das Jahr 2017</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 2: Presentation of the assessment methods used in the DACH region with regard to relevant characteristics, from &#8220;&#43;&#43;&#8221; (&#61;high) to &#8220;&#8212;&#8221; (&#61;low) or suitable to unsuitable from the authors&#39; point of view.</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Darstellung der in der DACH&#8211;Region verwandten Pr&#252;fungsmethoden hinsichtlich relevanter Merkmale, von &#8222;&#43;&#43;&#8220; (&#61;hoch) bis &#8222;--&#8220; (&#61;niedrig) bzw. geeignet bis ungeeignet aus der Sicht der Autoren.</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="224" width="1191">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Case 1: A 75-year-old man presents with a right hemiparesis in the emergency room.</Mark1> </Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Fall 1: Sie beurteilen einen 75j&#228;hrigen Mann mit einer Hemiparese rechts. Sie befinden sich im Notfallzentrum</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <Attachment>
          <MediaNo>1</MediaNo>
          <MediaID filename="zma001286.a1en.pdf" language="en" mimeType="application/pdf" origFilename="Attachment&#95;1.pdf" size="71907" url="">1en</MediaID>
          <MediaID filename="zma001286.a1de.pdf" language="de" mimeType="application/pdf" origFilename="Anhang&#95;1.pdf" size="72648" url="">1de</MediaID>
          <AttachmentTitle language="en">Overview of oral assessments taking place in Switzerland</AttachmentTitle>
          <AttachmentTitle language="de">&#220;bersicht &#252;ber stattfindende M&#252;ndliche &#8211; Pr&#252;fungen in der Schweiz</AttachmentTitle>
        </Attachment>
        <Attachment>
          <MediaNo>2</MediaNo>
          <MediaID filename="zma001286.a2en.pdf" language="en" mimeType="application/pdf" origFilename="Attachment&#95;2.pdf" size="79401" url="">2en</MediaID>
          <MediaID filename="zma001286.a2de.pdf" language="de" mimeType="application/pdf" origFilename="Anhang&#95;2.pdf" size="77898" url="">2de</MediaID>
          <AttachmentTitle language="en">Overview of written examinations taking place in the DACH region</AttachmentTitle>
          <AttachmentTitle language="de">&#220;bersicht &#252;ber stattfindende schriftliche Pr&#252;fungen in der DACH-Region</AttachmentTitle>
        </Attachment>
        <Attachment>
          <MediaNo>3</MediaNo>
          <MediaID filename="zma001286.a3en.pdf" language="en" mimeType="application/pdf" origFilename="Attachment&#95;3.pdf" size="68882" url="">3en</MediaID>
          <MediaID filename="zma001286.a3de.pdf" language="de" mimeType="application/pdf" origFilename="Anhang&#95;3.pdf" size="71226" url="">3de</MediaID>
          <AttachmentTitle language="en">Overview of oral examinations taking place in Austria</AttachmentTitle>
          <AttachmentTitle language="de">&#220;bersicht &#252;ber stattfindende M&#252;ndliche - Pr&#252;fungen in &#214;sterreich</AttachmentTitle>
        </Attachment>
        <Attachment>
          <MediaNo>4</MediaNo>
          <MediaID filename="zma001286.a4en.pdf" language="en" mimeType="application/pdf" origFilename="Attachment&#95;4.pdf" size="69688" url="">4en</MediaID>
          <MediaID filename="zma001286.a4de.pdf" language="de" mimeType="application/pdf" origFilename="Anhang&#95;4.pdf" size="69006" url="">4de</MediaID>
          <AttachmentTitle language="en">Overview of oral assessments taking place in Germany</AttachmentTitle>
          <AttachmentTitle language="de">&#220;bersicht &#252;ber stattfindende M&#252;ndliche &#8211; Pr&#252;fungen in Deutschland</AttachmentTitle>
        </Attachment>
        <NoOfAttachments>4</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>