<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001172</Identifier>
    <IdentifierDoi>10.3205/zma001172</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0011725</IdentifierUrn>
    <ArticleType language="en">article</ArticleType>
    <ArticleType language="de">Artikel</ArticleType>
    <TitleGroup>
      <Title language="en">Illustrated versus non-illustrated anatomical test items in anatomy course tests and German Medical Licensing examinations (M1)</Title>
      <TitleTranslated language="de">Bebilderte versus nicht bebilderte anatomische Testitems in Anatomiekursklausuren und Medizinischen Staatsexamenspr&#252;fungen (M1)</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Bahlmann</Lastname>
          <LastnameHeading>Bahlmann</LastnameHeading>
          <Firstname>Olaf</Firstname>
          <Initials>O</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
        </PersonNames>
        <Address language="en">Dr. Senckenbergische Anatomie (Institut III), Theodor-Stern-Kai 7, D-60590 Frankfurt, Germany, Phone: &#43;49 (0)69&#47;6301-6046, Fax: &#43;49 (0)69&#47;6301-6902<Affiliation>Dr. Senckenbergische Anatomie (Institut III), Frankfurt, Germany</Affiliation></Address>
        <Address language="de">Dr. Senckenbergische Anatomie (Institut III), Theodor-Stern-Kai 7, 60590 Frankfurt, Deutschland, Tel.: &#43;49 (0)69&#47;6301-6046, Fax: &#43;49 (0)69&#47;6301-6902<Affiliation>Dr. Senckenbergische Anatomie (Institut III), Frankfurt, Deutschland</Affiliation></Address>
        <Email>bahlmann&#64;med.uni-frankfurt.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">Examination questions</Keyword>
      <Keyword language="en">medical illustration</Keyword>
      <Keyword language="en">educational measurement</Keyword>
      <Keyword language="en">anatomy</Keyword>
      <Keyword language="en">anatomy and histology</Keyword>
      <Keyword language="de">Pr&#252;fungsfragen</Keyword>
      <Keyword language="de">Medizinische Abbildung</Keyword>
      <Keyword language="de">Lernerfolgsmessung</Keyword>
      <Keyword language="de">Anatomie</Keyword>
      <Keyword language="de">Anatomie und Histologie</Keyword>
      <SectionHeading language="en">Written Assessment</SectionHeading>
      <SectionHeading language="de">Schriftliche Pr&#252;fungen</SectionHeading>
    </SubjectGroup>
    <DateReceived>20170531</DateReceived>
    <DateRevised>20180202</DateRevised>
    <DateAccepted>20180304</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20180515</DatePublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>35</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>25</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Bebilderte Multiple-Choice- (MC) Fragen sind ein integraler Bestandteil von schriftlichen Pr&#252;fungen in der Anatomie. In bebilderten MC-Fragen bezieht sich die schriftliche Frage auf verschiedene Typen von Abbildungen wie R&#246;ntgenaufnahmen, Mikrofotografien von histologischen Schnitten oder Zeichnungen von anatomischen Strukturen. Da das Hereinnehmen von Abbildungen in MC-Fragen das Abschneiden der Items beeinflussen kann, verglichen wir die Charakteristika von anatomischen Items getestet mit bebilderten und nicht bebilderten MC-Fragen in sieben Anatomieklausuren und in zwei schriftlichen Teilen des Ersten Abschnitts der &#196;rztlichen Pr&#252;fung (M1). </Pgraph><Pgraph>In dieser Studie verglichen wir 25 bebilderte und 163 nicht bebilderte MC-Fragen aus Anatomieklausuren und 27 bebilderte und 130 nicht bebilderte MC-Fragen aus dem schriftlichen Teil des M1 mit einem nicht parametrischen Test f&#252;r ungepaarte Stichproben. Als Ergebnis waren keine signifikanten Unterschiede im Schwierigkeits- und Trennsch&#228;rfeniveau zwischen bebilderten und nicht bebilderten MC-Fragen vorhanden, dasselbe ergab sich in einer nach MC-Frageformaten stratifizierten Analyse. </Pgraph><Pgraph>Wir schlie&#223;en daraus, dass das bebilderte Itemformat f&#252;r sich die Itemschwierigkeit nicht zu beeinflussen scheint. Die aktuellen Ergebnisse stimmen mit fr&#252;heren retrospektiven Studien &#252;berein, die keine signifikanten Unterschiede zwischen Test- und Itemcharakteristika zwischen bebilderten und nicht bebilderten MC-Fragen zeigten. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>Illustrated Multiple-choice questions (iMCQs) form an integral part of written tests in anatomy. In iMCQs, the written question refers to various types of figures, e. g. X-ray images, micrographs of histological sections, or drawings of anatomical structures. Since the inclusion of images in MCQs might affect item performance we compared characteristics of anatomical items tested with iMCQs and non-iMCQs in seven tests of anatomy courses and in two written parts of the first section of the German Medical Licensing Examination (M1). </Pgraph><Pgraph>In summary, we compared 25 iMCQs and 163 non-iMCQs from anatomy courses, and 27 iMCQs and 130 non-iMCQs from the written part of the M1 using a nonparametric test for unpaired samples. As a result, there were no significant differences in difficulty and discrimination levels between iMCQs and non-iMCQs, the same applied to an analysis stratified for MCQ formats. </Pgraph><Pgraph>We conclude that the illustrated item format by itself does not seem to affect item difficulty. The present results are consistent with previous retrospective studies which showed no significant differences of test or item characteristics between iMCQs and non-iMCQs. </Pgraph></Abstract>
    <TextBlock language="en" linked="yes" name="1. Introduction">
      <MainHeadline>1. Introduction</MainHeadline><Pgraph>Today, there are diverse resources for anatomy assessment. Before the introduction of the Multiple-choice (MC) format in the seventies, state examinations were viva voce <TextLink reference="6"></TextLink>. Unstructured oral examinations lack good reliability. Structured oral examinations (SOE) can show good reliability using an item blueprint and a scoring template <TextLink reference="13"></TextLink>. </Pgraph><Pgraph>There are various formats of test items in written assessment. Currently, the most common is the MC format with four or five answer options. In Single-best answer (SBA) questions, there is only one best (correct) answer. SBA is the most popular MC format. In True&#47;false (T&#47;F) items, all correct answers (more than one) must be marked. Simple T&#47;F items might be acceptable. Multiple T&#47;F items with combinations of answer options, used in medical exams in the past, are no longer recommended <TextLink reference="4"></TextLink>. The Extended-matching question (EMQ) includes an option list and at least two item stems, and for each stem, the examinee chooses the single best answer from the list. Multiple-choice examinations show high test reliability <TextLink reference="6"></TextLink>, <TextLink reference="13"></TextLink>. Open questions can be answered by a written essay or keywords (Short-answer question, SAQ). Open questions are more time consuming, compared to MC formats <TextLink reference="6"></TextLink>. The Modified essay question (MEQ) is a structured variant of the essay format. In spotter&#47;tag tests, MCQs or SAQs refer to marked (tagged) structures in specimens or images <TextLink reference="1"></TextLink>, <TextLink reference="13"></TextLink>. </Pgraph><Pgraph>Multiple-choice questions (MCQs) are widely used in medical exams. In addition, many medical textbooks nowadays include some self-assessment MCQs at the end of a chapter. The National Board of Medical Examiners (NBME) and other authors published guidelines for the creation of MCQs <TextLink reference="4"></TextLink>, <TextLink reference="8"></TextLink>. Visual resources in exam questions should be accurate, complete, relevant and unambiguous <TextLink reference="5"></TextLink>. Instructions on how to produce visual material for MCQs and common pitfalls in anatomy MCQs are published <TextLink reference="1"></TextLink>, <TextLink reference="14"></TextLink>. </Pgraph><Pgraph>Illustrated MCQs (iMCQs) form an integral part of anatomy tests. Different MCQ formats, e. g. SBA questions or EMQs, can be combined with illustrations. Various illustrations can be included, from x-ray or histological images to photographs of gross preparation specimens or illustrations of functional systems. </Pgraph><Pgraph>An item analysis shows the difficulty and discrimination of individual MCQs. The difficulty index is the proportion of participants choosing the correct answer.  Item discrimination is the correlation between the item score and the test score (item total correlation). Good MCQs have a high correlation coefficient <TextLink reference="7"></TextLink>, <TextLink reference="11"></TextLink>. </Pgraph><Pgraph>Previous studies did not find significant differences in item or test characteristics between iMCQs and non-iMCQs <TextLink reference="3"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="12"></TextLink>, <TextLink reference="15"></TextLink>, except for a study on final year students tested with MCQs presenting a clinical problem. In this study on problem-based radiology questions, illustrated items requiring image interpretation were more difficult compared to questions testing recall of knowledge <TextLink reference="10"></TextLink>. </Pgraph><Pgraph>However, the integration of illustrations in MCQs might affect item difficulty and  overall test difficulty. Therefore, the aim of the present study was to assess characteristics of illustrated and non-illustrated anatomical items from seven anatomy course tests and two written parts of the first section of the German Medical Licensing Examination (M1) in autumn 2015 and 2016. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="1. Einleitung">
      <MainHeadline>1. Einleitung</MainHeadline><Pgraph>Heutzutage existieren verschiedene Ressourcen f&#252;r die Lernerfolgsmessung in Anatomie. Vor der Einf&#252;hrung des Multiple-Choice- (MC) Formats in den Siebzigerjahren waren Staatsexamina viva voce <TextLink reference="6"></TextLink>. Unstrukturierten m&#252;ndlichen Pr&#252;fungen fehlt eine gute Reliabilit&#228;t. Strukturierte m&#252;ndliche Pr&#252;fungen k&#246;nnen unter Verwendung eines Blueprints und einer Bewertungsschablone eine gute Reliabilit&#228;t aufweisen <TextLink reference="13"></TextLink>. </Pgraph><Pgraph>In der schriftlichen Lernerfolgsmessung gibt es verschiedene Formate von Testitems. Derzeit ist das MC-Format mit vier oder f&#252;nf Antwortoptionen das h&#228;ufigste. In Single-Best-Answer-Fragen gibt es nur eine richtige Antwort. Single-Best-Answer-Fragen sind das beliebteste MC-Format. In Richtig&#47;Falsch-Items m&#252;ssen alle richtigen Antworten (mehr als eine) markiert werden. Einfache Richtig&#47;Falsch-Items m&#246;gen akzeptabel sein, Richtig&#47;Falsch-Items mit Antwortkombinationen, wie sie in medizinischen Examina in der Vergangenheit verwendet wurden, werden nicht mehr empfohlen <TextLink reference="4"></TextLink>. Die Extended-Matching-Frage beinhaltet eine Liste mit Antwortoptionen und mindestens zwei Fragest&#228;mme und der Pr&#252;fling muss f&#252;r jeden Fragestamm die richtige Antwort aus der Liste ausw&#228;hlen. MC-Pr&#252;fungen zeigen eine gute Reliabilit&#228;t <TextLink reference="6"></TextLink>, <TextLink reference="13"></TextLink>. Offene Fragen k&#246;nnen durch einen schriftlichen Essay oder Stichworte beantwortet werden (Short-answer-Frage). Offene Fragen sind, verglichen mit MC-Formaten, zeitaufwendiger <TextLink reference="6"></TextLink>. Die modifizierte Essayfrage ist eine strukturierte Variante des Essayformats. In sogenannten Spotter&#47;Tag-Tests beziehen sich MC- oder Short-answer-Fragen auf in Abbildungen oder Pr&#228;paraten markierte Strukturen <TextLink reference="1"></TextLink>, <TextLink reference="13"></TextLink>. </Pgraph><Pgraph>MC-Fragen werden h&#228;ufig in medizinischen Examina verwendet. Au&#223;erdem beinhalten viele Medizinlehrb&#252;cher MC-Fragen zur Selbst&#252;berpr&#252;fung am Ende eines Kapitels. Das National Board of Medical Examiners (NBME) und andere Autoren haben Leitlinien f&#252;r die Erstellung von MC-Fragen ver&#246;ffentlicht <TextLink reference="4"></TextLink>, <TextLink reference="8"></TextLink>. Visuelle Ressourcen in Pr&#252;fungsfragen sollten akkurat, komplett, relevant und unmissverst&#228;ndlich sein <TextLink reference="5"></TextLink>. Wie visuelles Material f&#252;r MC-Fragen erstellt wird und h&#228;ufige Fallstricke in anatomischen MC-Fragen wurden publiziert <TextLink reference="1"></TextLink>, <TextLink reference="14"></TextLink>. </Pgraph><Pgraph>Bebilderte MC-Fragen sind ein integraler Bestandteil von Anatomieklausuren. Verschiedene MC-Frageformate, z.B. Single-Best-Answer- oder Extended-Matching-Fragen, k&#246;nnen mit Abbildungen kombiniert werden. Verschiedene Abbildungen k&#246;nnen hinzugenommen werden, von radiologischen oder histologischen Abbildungen bis zu Fotografien von makroskopischen Pr&#228;paraten oder Abbildungen funktioneller Systeme. </Pgraph><Pgraph>Eine Itemanalyse zeigt die Schwierigkeit und Trennsch&#228;rfe individueller MC-Fragen. Der Schwierigkeitsindex ist der Anteil an Teilnehmern, die das Item richtig beantwortet haben. Die Trennsch&#228;rfe ist die Korrelation zwischen dem Item- und Testergebnis (Item-Gesamt-Korrelation). Gute MC-Fragen haben einen hohen Korrelationskoeffizienten <TextLink reference="7"></TextLink>, <TextLink reference="11"></TextLink>. </Pgraph><Pgraph>Fr&#252;here Studien fanden keine signifikanten Unterschiede von Item- oder Testcharakteristika zwischen bebilderten und nicht bebilderten MC-Fragen <TextLink reference="3"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="12"></TextLink>, <TextLink reference="15"></TextLink>. Ausnahme war eine Studie an Studierenden im letzten Studienjahr, die mit MC-Fragen mit einer klinischen Problemstellung getestet wurden. In dieser Studie mit problembasierten Radiologiefragen waren bebilderte Items, die eine Bildinterpretation erforderten, schwieriger als Fragen, die das Erinnern von Wissensinhalten pr&#252;ften <TextLink reference="10"></TextLink>. </Pgraph><Pgraph>Die Hereinnahme von Abbildungen in MC-Fragen beeinflusst m&#246;glicherweise die Itemschwierigkeit und damit die Schwierigkeit der Pr&#252;fung. Daher war das Ziel der vorliegenden Arbeit, die Charakteristika von bebilderten und nicht bebilderten anatomischen Items aus sieben Anatomiekursklausuren und aus zwei schriftlichen Teilen des Ersten Abschnitts der &#196;rztlichen Pr&#252;fung (M1) aus dem Herbst 2015 und 2016 zu untersuchen. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="2. Methods">
      <MainHeadline>2. Methods</MainHeadline><SubHeadline2>2.1. Multiple-choice questions </SubHeadline2><Pgraph>MCQs from seven consecutive anatomy course tests from winter 2014 to summer 2016 provided the basis for this study. First and second year medical and dentistry students participated in the tests. A test with 30 MCQs was written at the end of course one (musculoskeletal system), course two (internal organs), course three (head and neck and neuroanatomy) and the anatomy seminar for medical students. Between 592 and 364 students participated in the anatomy course tests. Medical students of the Goethe-University Frankfurt wrote M1 examinations with 80 anatomy questions each, in autumn 2015 and 2016 with 393 and 330 participants. Anatomy course tests included between 3 and 7 and the written parts of the M1 12 and 15 illustrated anatomical items. Exam papers were evaluated with EvaExam software (Electric paper, L&#252;neburg, Germany). </Pgraph><Pgraph>MCQs classified as doublets and iMCQs with identical illustrations were excluded from the study. Microsoft Excel was used to calculate item difficulty and discrimination from the raw data. The difficulty index was determined as the mean item score. Item discrimination was calculated as the Pearson product-moment correlation coefficient of the individual item score and the sum score of the remaining items (corrected item discrimination). </Pgraph><Pgraph>Item analyses of M1 questions were produced and are under copyright by the Institute for Medical and Pharmaceutical Exam Questions (IMPP, Mainz, Germany). </Pgraph><SubHeadline2>2.2. Statistical analysis </SubHeadline2><Pgraph>Data were inspected and tested for normal distribution (Q-Q plot, Shapiro-Wilkinson test). The Kolmogorov-Smirnov test for unpaired samples was used to compare groups of MCQs. Statistical analysis was performed with GraphPad Prism version 7.00 for Windows (GraphPad Software, La Jolla, California, USA). Data were plotted with median and range. A comparison of iMCQs and non-iMCQs stratified for MCQ formats was performed with the stratified van-Elteren U-test (Bias, Version 11.02, epsilon Verlag, 2016). </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="2. Methoden">
      <MainHeadline>2. Methoden</MainHeadline><SubHeadline2>2.1. Multiple-Choice-Fragen </SubHeadline2><Pgraph>MC-Fragen aus sieben aufeinanderfolgenden Anatomiekursklausuren von Winter 2014 bis Sommer 2016 bildeten die Grundlage f&#252;r diese Studie. Human- und Zahnmedizinstudierende aus dem ersten und zweiten Studienjahr nahmen an den Klausuren teil. Eine Klausur mit 30 Fragen wurde am Ende des ersten Kurses (Muskuloskelettales System), zweiten Kurses (Innere Organe), dritten Kurses (Kopf- und Hals- und Neuroanatomie) und dem Anatomieseminar f&#252;r Humanmedizinstudierende geschrieben. Zwischen 592 und 364 Studierende nahmen an den Anatomiekursklausuren teil. Medizinstudierende der Goethe-Universit&#228;t Frankfurt schrieben die M1-Pr&#252;fungen mit je 80 Anatomiefragen im Herbst 2015 und 2016 mit 393 und 330 Teilnehmern. Die Anatomiekursklausuren beinhalteten zwischen 3 und 7 und die schriftlichen Teile des M1 12 und 15 bebilderte anatomische Items. Die Klausurb&#246;gen wurden mit der EvaExam Software (Electric paper, L&#252;neburg, Deutschland) evaluiert. </Pgraph><Pgraph>MC-Fragen, die als Doppel klassifiziert wurden, und bebilderte MC-Fragen mit identischen Abbildungen wurden von der Studie ausgeschlossen. Microsoft Excel wurde f&#252;r die Berechnung der Itemschwierigkeit und &#8211;trennsch&#228;rfe aus den Rohdaten verwendet. Der Schwierigkeitsindex wurde als mittleres Itemergebnis bestimmt. Die Itemtrennsch&#228;rfe wurde als der Pearson-Produkt-Moment-Korrelationskoeffizient des individuellen Itemergebnisses und des Summenergebnisses der restlichen Items (korrigierte Itemtrennsch&#228;rfe) berechnet. </Pgraph><Pgraph>Die Itemanalysen der M1-Fragen wurden vom Institut f&#252;r Medizinische und Pharmazeutische Pr&#252;fungsfragen (IMPP, Mainz, Deutschland) erstellt und sind urheberrechtlich gesch&#252;tzt. </Pgraph><SubHeadline2>2.2. Statistische Auswertung </SubHeadline2><Pgraph>Die Daten wurden auf Normalverteilung inspiziert und getestet (Q-Q-Graph, Shapiro-Wilkinson-Test). Der Kolmogorov-Smirnov-Test f&#252;r ungepaarte Stichproben wurde f&#252;r den Vergleich der MC-Fragegruppen verwendet. Die statistische Auswertung wurde mit GraphPad Prism Version 7.00 f&#252;r Windows (GraphPad Software, La Jolla, Kalifornien, USA) durchgef&#252;hrt. Die Daten wurden mit Median und Spannweite aufgetragen. Ein Vergleich von bebilderten und nicht bebilderten MC-Fragen, stratifiziert nach MC-Frageformaten, wurde mit dem stratifizierten van-Elteren-U-Test (Bias, Version 11.02, epsilon-Verlag, 2016) vorgenommen. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="3. Results">
      <MainHeadline>3. Results</MainHeadline><Pgraph>From anatomy course tests, 25 iMCQs and 163 non-iMCQs were included in this study. IMCQs consisted of 13 histological and 5 radiological images (conventional x-ray or CT), 4 anatomical illustrations, 2 surface anatomy pictures and 1 image of a gross brain section (see Figure 1 <ImgLink imgNo="1" imgType="figure"/>, translation of the original question). MCQs followed the A-type format (one best answer and four distractors). </Pgraph><Pgraph>Anatomy questions from two M1 examinations with 27 iMCQs and 130 non-iMCQs were also included in this study. 16 images of histological sections, 8 surface anatomy pictures, 1 image of a dissection specimen, 1 image of a body cross section and 1 anatomical illustration were used in iMCQs. </Pgraph><Pgraph>In addition, we stratified items according to MCQ formats. The stratified analysis was run on items with a question in the stem and (short) answer options, positively (Group A) or negatively worded (Group B), and MCQs with statements as answer options, positively (Group C) or negatively worded (Group D). Other formats (sentence completion or matching items) were excluded from the analysis. </Pgraph><Pgraph>Median difficulty of iMCQs and non-iMCQs was 0.78 vs 0.76 for anatomy course tests and 0.76 vs 0.82 for the written parts of the M1. The discrimination coefficient was 0.3 vs 0.31 and 0.24 vs 0.315, respectively. As a result, iMCQs and non-iMCQs showed no significant differences in difficulty and discrimination for MCQs of anatomy course tests and written parts of the M1 (p&#62;0.05) (see Figure 2 <ImgLink imgNo="2" imgType="figure"/>), the same applied to the stratified analysis.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="3. Ergebnisse">
      <MainHeadline>3. Ergebnisse</MainHeadline><Pgraph>Aus den Anatomiekursklausuren wurden 25 bebilderte und 163 nicht bebilderte MC-Fragen in diese Studie aufgenommen. Bebilderte MC-Fragen umfassten 13 histologische und 5 radiologische Abbildungen (konventionelle R&#246;ntgenaufnahmen oder CT), 4 anatomische (Schema)-Zeichnungen, 2 Anatomie-in-vivo Abbildungen und eine Abbildung einer Hirnscheibe (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>). Die MC-Fragen beinhalteten eine am wahrscheinlichsten zutreffende&#47;nicht zutreffende Antwort und vier Distraktoren (A-Fragenformattyp). </Pgraph><Pgraph>Anatomiefragen aus zwei M1-Pr&#252;fungen mit 27 bebilderten und 130 nicht bebilderten MC-Fragen wurden zudem in diese Studie aufgenommen. 16 histologische und 8 Anatomie-in-vivo Abbildungen, eine Abbildung eines anatomischen Pr&#228;parats, eine Abbildung einer K&#246;rperscheibe und eine anatomische Schema-Zeichnung wurden in den bebilderten MC-Fragen verwendet. </Pgraph><Pgraph>Au&#223;erdem stratifizierten wir die Items nach MC-Frageformaten. Die stratifizierte Auswertung wurde an Items mit einer Fragestellung im Stamm und (kurzen) Antwortoptionen, positiv (Gruppe A) oder negativ formuliert (Gruppe B), und MC-Fragen mit Aussagen als Antwortoptionen, positiv (Gruppe C) oder negativ formuliert (Gruppe D), vorgenommen. Andere Formate (Satzvervollst&#228;ndigung oder Zuordnungsitems) wurden von der Auswertung ausgeschlossen. </Pgraph><Pgraph>Die mittlere Schwierigkeit von bebilderten und nicht bebilderten MC-Fragen war 0.78 vs. 0.76 in Anatomiekursklausuren und 0.76 vs. 0.82 in den schriftlichen Teilen des M1. Der Trennsch&#228;rfekoeffizient war entsprechend 0.3 vs. 0.31 und 0.24 vs. 0.315. Als Ergebnis zeigten bebilderte und nicht bebilderte MC-Fragen keine signifikanten Unterschiede in Schwierigkeit und Trennsch&#228;rfe in Anatomiekursklausuren und den schriftlichen Teilen des M1 (p&#62;0.05) (siehe Abbildung 2 <ImgLink imgNo="2" imgType="figure"/>), was ebenfalls f&#252;r die stratifizierte Auswertung zutraf. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="4. Discussion">
      <MainHeadline>4. Discussion</MainHeadline><Pgraph>Visual resources are widely used in anatomy teaching and performance assessment. Each anatomy course test includes some iMCQs, and they are part of the written part of the first section of the Medical Licensing Examination (M1). Thus, in the present study, we were interested in the performance of this item format. Therefore, we compared iMCQs and non-iMCQs in anatomy course tests and the written part of the M1. We found that iMCQs and non-iMCQs did not differ significantly in difficulty and discrimination. The fact that iMCQs and non-iMCQs are based on alternative sources of information, i.e. images and text, does not seem to affect item characteristics. </Pgraph><Pgraph>IMCQs have been assessed previously. Hunt compared two sets of problem-based MCQs in radiology. One set included an image, the other a description of the image, e. g. a radiologist&#8217;s report. Final year students wrote the sets in two parallel exams. As a result, the set of items with visual content was significantly more difficult. In Hunt&#8216;s view the results &#8220;are consistent with the belief that questions calling for interpretation of data or problem-solving require a higher level of performance or additional skill to that required for questions which supply written descriptions of that data&#8221; (<TextLink reference="9"></TextLink>, p. 420). </Pgraph><Pgraph>In a study on Part 1 FRACS (Fellowship of the Royal Australasian College of Surgeons) exam questions, the authors compared 77 triplets of MCQs in anatomy and pathology. The MCQs presented four answer options. The triplets consisted of a visual and a verbal question of the same content and an additional verbal one of similar content. There were no significant differences in item difficulty and discrimination. The authors argued that their study was limited by a small sample size and that a lower competence in written English of non-native speaker candidates in the FRACS exams might have influenced the results <TextLink reference="3"></TextLink>. </Pgraph><Pgraph>Vorstenborsch et al. compared 39 EMQs with either an answer list or a labelled anatomical illustration in the item stem. Two test versions were constructed and half of the students wrote each test. Students volunteered for this informal exam, which was similar to the circumstances of an official exam. Using a label, some questions were more and some less difficult, compared to the non-labelled version. Contrary to our study, the authors used extended-matching items instead of MCQs and created closely matched items (labeled image vs answer list). Finally, they were able to compare overall difficulty and reliability of separate test versions. Apart from variable individual effects, the authors did not find overall differences between test versions <TextLink reference="15"></TextLink>. </Pgraph><Pgraph>Holland et al. reviewed histology exams from three consecutive years with 95 iMCQs and 100 non-iMCQs, and found no significant differences in item difficulty or discrimination <TextLink reference="9"></TextLink>. In the present study, we included 25 items of all anatomical subjects including 13 histology questions. </Pgraph><Pgraph>Similarly, in a retrospective analysis on text-only and items with reference images in anatomy examinations, there were no significant differences in difficulty or discrimination between item formats. In this study, the illustration was an addition to the item and did not replace written content, thus images &#8220;were considered not to be critical to answering the item&#8221; &#91;<TextLink reference="12"></TextLink>, page 3&#93;. Concerning study design, the studies by Hunt and Vorstenbosch were trial or informal examinations respectively. Students were allocated at random to test groups, and students were not informed about the nature of the examination. Though it was an informal test, test conditions were comparable to an official exam <TextLink reference="10"></TextLink>. Each student answered items in both formats <TextLink reference="10"></TextLink>, <TextLink reference="15"></TextLink>. </Pgraph><Pgraph>The studies by Buzzard and Hunt included radiological items, which went beyond recall of knowledge and asked for thinking in a clinical context (see item examples) <TextLink reference="2"></TextLink>, <TextLink reference="10"></TextLink>. Hunt categorized items according to clinical setting, supplementary data, interpretation, diagnosis and treatment presented in the question stem and options. In all subgroups, items were more difficult in the illustrated format <TextLink reference="10"></TextLink>. In the present study, most of the MCQs cover basic anatomical knowledge on a lower cognitive level. </Pgraph><Pgraph>Hunt showed the increase and decrease of difficulty and discrimination of items created in pairs. 43 out of 70 item pairs increased in difficulty <TextLink reference="10"></TextLink>. In the present study, we compared formats of independent items without a pairwise allocation. </Pgraph><Pgraph>In addition, we stratified for MCQ formats (wording and structure of item stems and options) (see Figure 3 <ImgLink imgNo="3" imgType="figure"/>). However, the integration of illustrations in MCQs had no significant effect on item difficulty and discrimination. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="4. Diskussion">
      <MainHeadline>4. Diskussion</MainHeadline><Pgraph>Visuelle Ressourcen werden h&#228;ufig im Anatomieunterricht und der Leistungs&#252;berpr&#252;fung gebraucht. Jede Anatomieklausur beinhaltet bebilderte MC-Fragen, und sie sind Bestandteil des schriftlichen Teils des M1. Daher interessierten wir uns in der vorliegenden Studie f&#252;r das Abschneiden dieses Itemformats. Dazu verglichen wir bebilderte und nicht bebilderte MC-Fragen in Anatomiekursklausuren und dem schriftlichen Teil des M1. Wir fanden, dass sich bebilderte und nicht bebilderte MC-Fragen nicht signifikant in der Schwierigkeit und Trennsch&#228;rfe unterschieden. Dass bebilderte und nicht bebilderte MC-Fragen auf verschiedenen Ressourcen basieren, d. h. Abbildungen und Text, scheint die Itemcharakteristika nicht zu beeinflussen. </Pgraph><Pgraph>Bebilderte MC-Fragen wurden in der Vergangenheit bereits untersucht. Hunt verglich zwei Sets an problembasierten MC-Fragen in der Radiologie. Ein Set beinhaltete eine Abbildung, das andere eine Beschreibung der Abbildung, z. B. einen Radiologiebericht. Studierende im letzten Studienjahr schrieben die Sets in zwei parallelen Pr&#252;fungen. Als Ergebnis war das Set mit visuellem Inhalt signifikant schwieriger. Nach Auffassung von Hunt waren die Ergebnisse &#8220;&#252;bereinstimmend mit der Ansicht, dass Fragen, die eine Interpretation der Daten oder eine Probleml&#246;sung verlangen, ein h&#246;heres Leistungslevel oder zus&#228;tzliche F&#228;higkeiten erfordern als Fragen, die eine schriftliche Beschreibung der Daten bieten&#8221; (<TextLink reference="10"></TextLink>, S. 420). </Pgraph><Pgraph>In einer Studie an Fragen aus dem ersten Teil des FRACS-Examens (Fellowship of the Royal Australasian College of Surgeons) verglichen die Autoren 77 MC-Fragentripletts zur Anatomie und Pathologie. Die MC-Fragen boten vier Antwortoptionen. Die Tripletts bestanden aus einer visuellen und verbalen Frage desselben und einer zus&#228;tzlichen verbalen Frage vergleichbaren Inhalts. Es ergaben sich keine signifikanten Unterschiede in Itemschwierigkeit und -trennsch&#228;rfe. Die Autoren argumentierten, dass ihre Studie durch eine geringe Fallzahl limitiert sei und dass eine niedrigere Kompetenz in der englischen Schriftsprache von Nicht-Muttersprachlern die Ergebnisse des FRACS-Examens beeinflusst haben k&#246;nnte <TextLink reference="3"></TextLink>. </Pgraph><Pgraph>Vorstenborsch et al. verglichen 39 Extended-Matching-Fragen mit entweder einer Antwortliste oder einer beschrifteten anatomischen Abbildung im Fragestamm. Es wurden zwei Testversionen erstellt und die H&#228;lfte der Studierenden schrieben beide Tests. Die Studierenden nahmen freiwillig an der informellen Pr&#252;fung teil, die vergleichbar den Bedingungen einer offiziellen Pr&#252;fung war. Manche der beschrifteten Fragen waren schwieriger und andere dagegen weniger schwierig, verglichen mit der nicht beschrifteten Version. Anders als in unserer Studie verwendeten die Autoren Extended-Matching- anstatt MC-Fragen und erstellten eng abgestimmte Items (beschriftete Abbildungen bzw. Antwortliste). Schlussendlich war es ihnen m&#246;glich, die Gesamtschwierigkeit und Reliabilit&#228;t der separaten Testversionen zu vergleichen. Abgesehen von variablen Einzeleffekten fanden die Autoren keine Gesamtunterschiede zwischen den Testversionen <TextLink reference="15"></TextLink>. </Pgraph><Pgraph>Holland et al. untersuchten Histologieklausuren dreier aufeinanderfolgender Jahre mit 95 bebilderten und 100 nicht bebilderten MC-Fragen und fanden keine signifikanten Unterschiede in Itemschwierigkeit oder &#8211;trennsch&#228;rfe <TextLink reference="9"></TextLink>. In die vorliegende Studie nahmen wir 25 Items aller anatomischer Gebiete auf inklusive 13 histologische Fragen. </Pgraph><Pgraph>In &#228;hnlicher Weise waren in einer retrospektiven Auswertung von Textaufgaben und Items mit Referenzabbildungen aus Anatomiepr&#252;fungen keine signifikanten Unterschiede in Schwierigkeit oder Trennsch&#228;rfe zwischen den Itemformaten vorhanden. In dieser Studie erg&#228;nzten die Abbildungen das Item und ersetzten nicht den schriftlichen Inhalt, somit &#8220;waren &#91;die Abbildungen&#93; nicht als kritisch f&#252;r die Beantwortung des Items anzusehen&#8221; (<TextLink reference="12"></TextLink>, Seite 3). Was das Studiendesign betrifft, waren die Studien von Hunt und Vorstenbosch Probeklausuren bzw. informelle Pr&#252;fungen. Die Studierenden wurden randomisiert den Testgruppen zugewiesen und nicht &#252;ber die Testform unterrichtet. Obwohl es sich um eine informelle Pr&#252;fung handelte, waren die Testbedingungen vergleichbar einer offiziellen Pr&#252;fung <TextLink reference="10"></TextLink>. Jede(r) Studierende beantwortete die Items in beiden Formaten <TextLink reference="10"></TextLink>, <TextLink reference="15"></TextLink>. </Pgraph><Pgraph>Die Studien von Buzzard und Hunt beinhalteten radiologische Items, die &#252;ber eine Erinnerung von Wissensinhalten hinaus gingen und Denken im klinischen Kontext verlangten (vgl. Itembeispiele) <TextLink reference="2"></TextLink>, <TextLink reference="10"></TextLink>. Hunt kategorisierte die Items nach klinischem Szenario, supplement&#228;ren Daten, Interpretation, Diagnose und Behandlung im Fragestamm und Optionen. Die Items waren im bebilderten Format in allen Untergruppen schwieriger <TextLink reference="10"></TextLink>. In der vorliegenden Studie deckten die meisten Items grundlegendes anatomisches Wissen auf niedrigerem kognitivem Niveau ab.  </Pgraph><Pgraph>Hunt zeigte den Anstieg und die Abnahme der Schwierigkeit und Trennsch&#228;rfe an Itempaaren. In 43 von 70 Itempaaren nahm die Schwierigkeit zu <TextLink reference="10"></TextLink>. In der vorliegenden Studie verglichen wir die Formate von unabh&#228;ngigen Items und nahmen keine paarweise Zuordnung vor. </Pgraph><Pgraph>Au&#223;erdem stratifizierten wir nach MC-Frageformaten (Formulierung und Struktur des Fragestamms und der Optionen) (siehe Abbildung 3 <ImgLink imgNo="3" imgType="figure"/>). Die Hereinnahme von Abbildungen in MC-Fragen hatte keinen signifikanten Effekt auf die Itemschwierigkeit und -trennsch&#228;rfe. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="5. Conclusion">
      <MainHeadline>5. Conclusion</MainHeadline><Pgraph>In conclusion, iMCQs can be used whenever appropriate. IMCQs can motivate students who are good in visual knowledge and thinking and can be written for lower and higher cognitive levels of exam questions. IMCQs are used to reflect teaching subjects and provide feedback about the effectivity of teaching. Thereby, the introduction of additional visual teaching material can be evaluated by corresponding iMCQs. Using iMCQs, the images must be of sufficient quality and size and accurately labeled. According to constructive alignment, a test blueprint helps choosing iMCQs for the exam. Different kinds of illustrations (histological images, x-rays) will reflect the diversity of visual input in medicine. Checking the quality of iMCQs will also improve students&#8217; learning from trial exam questions. Finally, the results of this study might reassure question writers to use iMCQs. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="5. Schlussfolgerung">
      <MainHeadline>5. Schlussfolgerung</MainHeadline><Pgraph>Bebilderte MC-Fragen sind immer, wenn es geeignet erscheint, einsetzbar. Bebilderte MC-Fragen k&#246;nnen Studierende motivieren, die gut sind in visuellem Wissen und Denken, und sie k&#246;nnen f&#252;r niedrigere und h&#246;here kognitive Niveaus geschrieben werden. Bebilderte MC-Fragen werden genutzt, um Lehrgegenst&#228;nde zu reflektieren und R&#252;ckmeldung &#252;ber die Effektivit&#228;t des Lehrens zu erhalten. Dadurch kann die Einf&#252;hrung von zus&#228;tzlichen visuellen Lehrgegenst&#228;nden durch entsprechende bebilderte MC-Fragen evaluiert werden. Bei der Verwendung von bebilderten MC-Fragen ist darauf zu achten, dass die Abbildungen von ausreichender Qualit&#228;t und Gr&#246;&#223;e und sorgf&#228;ltig beschriftet sind. Gem&#228;&#223; einem Constructive Alignment hilft ein Blueprint bei der Auswahl von bebilderten MC-Fragen f&#252;r die Klausur. Verschiedenartige Abbildungen (histologische Abbildungen, R&#246;ntgenaufnahmen) reflektieren die Vielseitigkeit der bildlichen Informationen in der Medizin. Die &#220;berpr&#252;fung der Qualit&#228;t von bebilderten MC-Fragen wird auch das studentische Lernen an Probeklausurfragen verbessern. Schlussendlich werden die Ergebnisse der vorliegenden Studie vielleicht Frageschreiber best&#228;rken, bebilderte MC-Fragen zu verwenden. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Acknowledgements">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>The author would like to acknowledge Professor Eva Herrmann for statistical advice, Professor J&#246;rg Stehle and Professor Frank N&#252;rnberger for helpful comments and the latter for the iMCQ example. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Danksagung">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Der Autor m&#246;chte Frau Professor Eva Herrmann f&#252;r die statistische Beratung, Herrn Professor J&#246;rg Stehle und Herrn Professor Frank N&#252;rnberger f&#252;r hilfreiche Kommentare und dem Letztgenannten f&#252;r das Beispiel einer bebilderten MC Frage danken. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The author declares that he has no competing interests.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Der Autor erkl&#228;rt, dass er keine Interessenkonflikte im Zusammenhang mit diesem Artikel hat.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Brenner E</RefAuthor>
        <RefAuthor>Chirculescu AR</RefAuthor>
        <RefAuthor>Reblet C</RefAuthor>
        <RefAuthor>Smith C</RefAuthor>
        <RefTitle>Assessment in anatomy</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Eur J Anat</RefJournal>
        <RefPage>105-124</RefPage>
        <RefTotal>Brenner E, Chirculescu AR, Reblet C, Smith C. Assessment in anatomy. Eur J Anat. 2015;19(1):105-124.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Buzzard AJ</RefAuthor>
        <RefAuthor>Bandaranayake R</RefAuthor>
        <RefAuthor>Harvey C</RefAuthor>
        <RefTitle>How to produce visual material for multiple choice examinations</RefTitle>
        <RefYear>1987</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>451-456</RefPage>
        <RefTotal>Buzzard AJ, Bandaranayake R, Harvey C. How to produce visual material for multiple choice examinations. Med Teach. 1987;9(4):451-456. DOI: 10.3109&#47;01421598709008341</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;01421598709008341</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Buzzard AJ</RefAuthor>
        <RefAuthor>Bandaranayake RC</RefAuthor>
        <RefTitle>Comparison of the performance of visual and verbal multiple-choice questions</RefTitle>
        <RefYear>1991</RefYear>
        <RefJournal>Aus N Z J Surg</RefJournal>
        <RefPage>614-618</RefPage>
        <RefTotal>Buzzard AJ, Bandaranayake RC. Comparison of the performance of visual and verbal multiple-choice questions. Aus N Z J Surg. 1991;61(8):614-618. DOI: 10.1111&#47;j.1445-2197.1991.tb00302.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1445-2197.1991.tb00302.x</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Case SM</RefAuthor>
        <RefAuthor>Swanson DB</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2001</RefYear>
        <RefBookTitle>National Board of Medical Examiners. Constructing written test questions for the basic and clinical sciences</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Case SM, Swanson DB. National Board of Medical Examiners. Constructing written test questions for the basic and clinical sciences, 3rd ed. Philadelphia: National Board of Medical Examiners; 2001. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.nbme.org&#47;pdf&#47;itemwriting&#95;2003&#47;2003iwgwhole.pdf</RefTotal>
        <RefLink>http:&#47;&#47;www.nbme.org&#47;pdf&#47;itemwriting&#95;2003&#47;2003iwgwhole.pdf</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Crisp V</RefAuthor>
        <RefAuthor>Sweiry E</RefAuthor>
        <RefTitle>Can a picture ruin a thousand words&#63; The effect of visual resources in exam questions</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Educ Res</RefJournal>
        <RefPage>139-154</RefPage>
        <RefTotal>Crisp V, Sweiry E. Can a picture ruin a thousand words&#63; The effect of visual resources in exam questions. Educ Res. 2006;48(2):139-154. DOI: 10.1080&#47;00131880600732249</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;00131880600732249</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Elmer A</RefAuthor>
        <RefAuthor>Grifka J</RefAuthor>
        <RefTitle>Vergleich von Pr&#252;fungsmethoden in der medizinischen Ausbildung</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Gesundheitswesen (Suppl Med Ausbild)</RefJournal>
        <RefPage>14-17</RefPage>
        <RefTotal>Elmer A, Grifka J. Vergleich von Pr&#252;fungsmethoden in der medizinischen Ausbildung. Gesundheitswesen (Suppl Med Ausbild). 1998;15(Suppl1):14-17.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Haladyna TM</RefAuthor>
        <RefAuthor>Downing SM</RefAuthor>
        <RefAuthor>Rodriguez MC</RefAuthor>
        <RefTitle>A review of multiple-choice item-writing guidelines for classroom assessment</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Appl Meas Educ</RefJournal>
        <RefPage>309-334</RefPage>
        <RefTotal>Haladyna TM, Downing SM, Rodriguez MC. A review of multiple-choice item-writing guidelines for classroom assessment. Appl Meas Educ. 2002;15(3):309-334. DOI: 10.1207&#47;S15324818AME1503&#95;5</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1207&#47;S15324818AME1503&#95;5</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Haladyna TM</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2004</RefYear>
        <RefBookTitle>Developing and validating multiple-choice test items</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Haladyna TM. Developing and validating multiple-choice test items, 3rd ed. Mahwah, NJ: Lawrence Erlbaum Associates; 2004.</RefTotal>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Holland J</RefAuthor>
        <RefAuthor>O&#39;Sullivan R</RefAuthor>
        <RefAuthor>Arnett R</RefAuthor>
        <RefTitle>Is a picture worth a thousand words: an analysis of the difficulty and discrimination parameters of illustrated vs. text-alone vignettes in histology multiple choice questions</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>184</RefPage>
        <RefTotal>Holland J, O&#39;Sullivan R, Arnett R. Is a picture worth a thousand words: an analysis of the difficulty and discrimination parameters of illustrated vs. text-alone vignettes in histology multiple choice questions. BMC Med Educ. 2015;15:184. Doc184. DOI: 10.1186&#47;s12909-015-0452-9</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1186&#47;s12909-015-0452-9</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Hunt DR</RefAuthor>
        <RefTitle>Illustrated multiple choice examinations</RefTitle>
        <RefYear>1978</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>417-420</RefPage>
        <RefTotal>Hunt DR. Illustrated multiple choice examinations. Med Educ. 1978;12(6):417-420. DOI: 10.1111&#47;j.1365-2923.1978.tb01420.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1365-2923.1978.tb01420.x</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Schellberg D</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Grundlegende quantitative Analysen medizinischer Pr&#252;fungen. Basic quantitative analyses of medical examinations</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc53</RefPage>
        <RefTotal>M&#246;ltner A, Schellberg D, J&#252;nger J. Grundlegende quantitative Analysen medizinischer Pr&#252;fungen. Basic quantitative analyses of medical examinations. GMS Z Med Ausbild. 2006;23(3):Doc53. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2006-23&#47;zma000272.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2006-23&#47;zma000272.shtml</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Notebaert AJ</RefAuthor>
        <RefTitle>The effect of images on item statistics in multiple choice anatomy examinations</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Anat Sci Educ</RefJournal>
        <RefPage>68-78</RefPage>
        <RefTotal>Notebaert AJ. The effect of images on item statistics in multiple choice anatomy examinations. Anat Sci Educ. 2017;10(1):68-78. DOI: 10.1002&#47;ase.1637</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;ase.1637</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Samarasekera DD</RefAuthor>
        <RefAuthor>Gopalakirshnakone P</RefAuthor>
        <RefAuthor>Gwee MC</RefAuthor>
        <RefTitle>Assessing anatomy as a basic medical science</RefTitle>
        <RefYear>2015</RefYear>
        <RefBookTitle>Teaching anatomy: a practical guide</RefBookTitle>
        <RefPage>279-289</RefPage>
        <RefTotal>Samarasekera DD, Gopalakirshnakone P, Gwee MC. Assessing anatomy as a basic medical science. In: Chan LK, Pawlina W (Hrsg). Teaching anatomy: a practical guide. Bern: Springer International Publishing; 2015. S.279-289. DOI: 10.1007&#47;978-3-319-08930-0&#95;31</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;978-3-319-08930-0&#95;31</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Vahalia KV</RefAuthor>
        <RefAuthor>Subramaniam K</RefAuthor>
        <RefAuthor>Marks SC Jr</RefAuthor>
        <RefAuthor>De Souza EJ</RefAuthor>
        <RefTitle>The use of multiple-choice tests in anatomy: Common pitfalls and how to avoid them</RefTitle>
        <RefYear>1995</RefYear>
        <RefJournal>Clin Anat</RefJournal>
        <RefPage>61-65</RefPage>
        <RefTotal>Vahalia KV, Subramaniam K, Marks SC Jr, De Souza EJ. The use of multiple-choice tests in anatomy: Common pitfalls and how to avoid them. Clin Anat. 1995;8(1):61-65. DOI: 10.1002&#47;ca.980080111</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;ca.980080111</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Vorstenbosch MA</RefAuthor>
        <RefAuthor>Klaassen TP</RefAuthor>
        <RefAuthor>Kooloos</RefAuthor>
        <RefAuthor>JG</RefAuthor>
        <RefAuthor>Bolhuis SM</RefAuthor>
        <RefAuthor>Laan RF</RefAuthor>
        <RefTitle>Do images influence assessment in anatomy&#63; Exploring the effect of images on item difficulty and item discrimination</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Anat Sci Educ</RefJournal>
        <RefPage>29-41</RefPage>
        <RefTotal>Vorstenbosch MA, Klaassen TP, Kooloos, JG, Bolhuis SM, Laan RF. Do images influence assessment in anatomy&#63; Exploring the effect of images on item difficulty and item discrimination. Anat Sci Educ. 2013;6(1):29-41. DOI: 10.1002&#47;ase.1290</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;ase.1290</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="421" width="354">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Example of an iMCQ (translation of the original question). The illustrated item format included 13 histological and 5 radiological images, 4 anatomical illustrations, 2 surface anatomy and one brain section image. </Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Beispiel einer bebilderten MC-Frage. Das bebilderte Itemformat beinhaltete 13 histologische und 5 radiologische Abbildungen, 4 anatomische Zeichnungen, 2 Anatomie in vivo Abbildungen und eine Abbildung einer Hirnscheibe</Mark1>. </Pgraph></Caption>
        </Figure>
        <Figure format="png" height="463" width="697">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Difficulty and discrimination of iMCQs versus non-iMCQs in anatomy course tests (a) and M1 anatomical items (b). Data shown with median and range. As a result, iMCQs and non-iMCQs were not significantly different in difficulty and discrimination in anatomy course tests and in written parts of the M1. </Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Schwierigkeit und Trennsch&#228;rfe bebilderter (IMCQs) versus nicht bebilderter MC-Fragen (non-IMCQs) in Anatomiekursklausuren (a) und M1-Anatomieitems (b). Daten aufgetragen mit Median und Spannweite. Bebilderte und nicht bebilderte MC-Fragen unterschieden sich nicht signifikant in ihrer Schwierigkeit und Trennsch&#228;rfe in Anatomiekursklausuren und in den schriftlichen Teilen des M1. </Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="525" width="690">
          <MediaNo>3</MediaNo>
          <MediaID language="en">3en</MediaID>
          <MediaID language="de">3de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 3: Difficulty and discrimination of iMCQs (</Mark1>&#9679;<Mark1>) versus non-iMCQs (</Mark1>&#9633;<Mark1>) in anatomy course tests (a) and written parts of the M1 (b), stratified for MCQ formats. Here, MCQs in the (short) answer option format, positively (A) and negatively worded (B), and MCQs in the statement option format, positively (C) and negatively worded (D), are shown, with median and range. As a result, there were no significant differences between iMCQs and non-iMCQs. </Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 3: Schwierigkeit und Trennsch&#228;rfe  bebilderter (IMCQs) (</Mark1>&#9679;<Mark1>) versus nicht bebilderter MC-Fragen (non-IMCQs) (</Mark1>&#9633;<Mark1>) in Anatomiekursklausuren (a) und dem schriftlichen Teil des M1 (b), stratifiziert nach MC-Frageformaten. Dargestellt sind MC-Fragen im (kurzen) Antwortoptionsformat, positiv (A) und negativ formuliert (B), und MC-Fragen im Aussageoptionsformat, positiv (C) und negativ (D) formuliert, mit Median und Spannweite. Es ergaben sich keine signifikanten Unterschiede zwischen bebilderten und nicht bebilderten MC-Fragen. </Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>3</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>