<?xml version="1.0" encoding="ISO-8859-1"?>
<GmsArticle>
  <MetaData>
    <Identifier>mibe000009</Identifier>
    <ArticleType>Rückblick und Ausblick</ArticleType>
    <TitleGroup>
      <Title language="de">Glättungsverfahren in der Biometrie</Title>
      <TitleAlternative>ein historischer Abriss</TitleAlternative>
      <TitleTranslated language="en">Smoothing methods in biometry</TitleTranslated>
      <TitleTranslatedAlternative>a historic review</TitleTranslatedAlternative>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Schimek</Lastname>
          <LastnameHeading>Schimek</LastnameHeading>
          <Firstname>Michael G.</Firstname>
          <Initials>MG</Initials>
          <AcademicTitle>Prof. Dr. Dr.</AcademicTitle>
        </PersonNames>
        <Address>Medizinische Universität Graz, Institut für Medizinische Informatik, Statistik und Dokumentation, Auenbruggerplatz 2, A-8036 Graz, Austria<Affiliation>Medizinische Universität Graz, Institut für Medizinische Informatik, Statistik und Dokumentation, Graz, Austria</Affiliation>
</Address>
        <Email>michael.schimek@meduni-graz.at</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science</Corporatename>
          <CorporateHeading/>
        </Corporation>
        <Address>Düsseldorf, Köln</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">biostatistics</Keyword>
      <Keyword language="en">curve estimation</Keyword>
      <Keyword language="en">density estimation</Keyword>
      <Keyword language="en">history</Keyword>
      <Keyword language="en">kernel estimator</Keyword>
      <Keyword language="en">local polynomials</Keyword>
      <Keyword language="en">regression</Keyword>
      <Keyword language="en">smoothing methods</Keyword>
      <Keyword language="en">splines</Keyword>
      <Keyword language="de">Biostatistik</Keyword>
      <Keyword language="de">Dichteschätzung</Keyword>
      <Keyword language="de">Glättungsverfahren</Keyword>
      <Keyword language="de">Geschichte</Keyword>
      <Keyword language="de">Kernschätzer</Keyword>
      <Keyword language="de">Kurvenschätzung</Keyword>
      <Keyword language="de">lokale Polynome</Keyword>
      <Keyword language="de">Regression</Keyword>
      <Keyword language="de">Splines</Keyword>
    </SubjectGroup>
    <Comment/>
    <DatePublishedList>
<DatePublished>20050620</DatePublished>
</DatePublishedList>
    <Language>germ</Language>
    <SourceGroup>
      <Journal>
        <ISSN>1860-9171</ISSN>
        <Volume>1</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Medizinische Informatik, Biometrie und Epidemiologie</JournalTitle>
        <JournalTitleAbbr>GMS Med Inform Biom Epidemiol</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>09</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes">
<Pgraph>Vor rund 25 Jahren haben in Deutschland nichtparametrische Glättungsverfahren in die Statistik und etwas zeitverzögert auch in die Biometrie Eingang gefunden. In den frühen 1980er Jahren setzte ein regelrechter Boom in der theoretischen und bald auch rechenintensiven Statistik (engl. 'computational statistics') ein. Im Vordergrund standen univariate nichtparametrische Verfahren für die Dichte- und Kurvenschätzung. Wirklich interessant wurden Glättungsmethoden für die Biometrie jedoch erst in ihrer multivariaten Ausformung. Dieser 'Dimensionswechsel' wirft bis heute offene methodische Fragen auf. Es darf daher nicht wundern, dass das vereinfachende Paradigma der additiven Regression, realisiert in den generalisierten additiven Modellen (GAM), den Siegeszug der Glättungsverfahren Anfang der 1990er Jahre eingeleitet hat. Parallel dazu hat es neue Algorithmen und bedeutende Softwareentwicklungen, vor allem in den statistischen Programmiersprachen S und R, gegeben. Neuere Entwicklungen von Glättungsverfahren finden sich in der Überlebenszeitanalyse, der Longitudinalanalyse, den gemischten Modellen und in der Funktionaldatenanalyse, teilweise unter Einbeziehung Bayesianischer Konzepte. Ganz neu sind statistische Methoden mit Glättungsbezug  in der Bioinformatik.</Pgraph>
<Pgraph>In diesem Artikel wird nicht nur ein allgemeiner historischer Überblick gegeben, sondern auch versucht speziell die Aktivitäten im deutschsprachigen Raum zu skizzieren. Auch die derzeitige Situation wird einer kritischen Betrachtung unterzogen. Schlussendlich wird eine große Anzahl relevanter Literaturhinweise gegeben.</Pgraph>
</Abstract>
    <Abstract language="en" linked="yes">
<Pgraph>In Germany around 25 years ago nonparametric smoothing methods have found their way into statistics and with some delay also into biometry. In the early 1980's there has been what one might call a boom in theoretical and soon after also in computational statistics. The focus was on univariate nonparametric methods for density and curve estimation. For biometry however smoothing methods became really interesting in their multivariate version. This 'change of dimensionality' is still raising open methodological questions. No wonder that the simplifying paradigm of additive regression, realized in the generalized additive models (GAM), has initiated the success story of smoothing techniques starting in the early 1990's. In parallel there have been new algorithms and important software developments, primarily in the statistical programming languages S and R. Recent developments of smoothing techniques can be found in survival analysis, longitudinal analysis, mixed models and functional data analysis, partly integrating Bayesian concepts. All new are smoothing related statistical methods in bioinformatics.</Pgraph>
<Pgraph>In this article we aim not only at a general historical overview but also try to sketch activities in the German-speaking world. Moreover, the current situation is critically examined. Finally a large number of relevant references is given.</Pgraph>
</Abstract>
    <TextBlock name="Einleitung" linked="yes">
      <MainHeadline>Einleitung</MainHeadline>
<Pgraph>In diesem Artikel wird versucht, die Bedeutung von Glättungsverfahren für die Biometrie kritisch zu beleuchten. Diese international weit verbreitete, rechenintensive Methodik ist aus der modernen Statistik nicht mehr wegzudenken. Ziel ist es, ihre Positionierung in der Biostatistik bzw. Biometrie aus historischer Sicht aufzuzeigen. Eine solche Betrachtung ist niemals nur die Beschreibung einer Entwicklung in einem Forschungsfeld, sondern enthält immer auch eine persönliche Sicht, die von den eigenen Erfahrungen und Präferenzen in Theorie und Anwendung geprägt wird. Dies möge der werte Leser/die werte Leserin dem Verfasser zugute halten. Die notwendige Kürze einer solchen Abhandlung erzwingt zusätzlich eine inhaltliche Fokussierung, so erstrebenswert thematische Vollständigkeit auch sein mag.</Pgraph>
<Pgraph>Was ist nun die grundlegende Idee des Glättens? Sie besteht darin, eine funktionelle Beziehung zwischen unterschiedlichen Messgrößen zu finden. Eine wichtige Anwendung ist die Regressionsanalyse. In der klassischen, parametrischen Regression ist diese Beziehung festgelegt (z.B. eine Gerade). In der nichtparametrischen glättenden Regression hingegen bestimmen die Datenpunkte selbst die funktionelle Form, die abgesehen von gewissen Glattheitsanforderungen (z.B. an die Ableitungen der Funktion) beliebig ist.</Pgraph>
<Pgraph>Was ist ein Glätter (engl. 'smoother')? Ein statistisches Werkzeug für die Zusammenfassung der Beobachtungen an einer abhängigen Messgröße <Mark2>Y</Mark2> als Funktion einer oder mehrerer Prädiktormessgrößen <Mark2>X</Mark2>
<Subscript>1</Subscript>,&#8230;, <Mark2>X</Mark2>
<Subscript>p</Subscript>. Der resultierende Schätzer ist weniger variabel als die Beobachtungen von <Mark2>Y</Mark2> selbst, was den Namen 'Glätter' erklärt.</Pgraph>
<Pgraph>Prinzipiell gibt es zwei Anwendungen in der Biometrie: Als deskriptives (exploratorisches) Hilfsmittel zur Visualisierung von Punktwolken (engl. 'scatterplots'; siehe z.B. <TextLink reference="44"/>) und als Methode der Schätzung der Abhängigkeit des Mittels von <Mark2>Y</Mark2> von einem oder mehreren Prädiktoren (siehe z.B. <TextLink reference="46"/>).</Pgraph>
<Pgraph>Wozu benötigen wir Glätter? Abgesehen von der eingangs erwähnten Regressionsanalyse vor allem für die Dichteschätzung.</Pgraph>
<Pgraph>Wie funktioniert ein Glätter? Er kann als gewichteter Mittelungsprozess charakterisiert werden (auch andere Erklärungsansätze sind gebräuchlich und nützlich). Die Mittelung erfolgt in der Nachbarschaft um den jeweiligen Zielpunkt über einen geordneten metrischen Prädiktor. Die Nachbarschaft (Bandweite) muss geeignet festgelegt werden. Es handelt sich somit um eine nichtparametrische Strategie. Im Gegensatz zu starren parametrischen Ansätzen ist die Abhängigkeit <Mark2>Y</Mark2>s von den <Mark2>X</Mark2>
<Subscript>1</Subscript>,&#8230;, <Mark2>X</Mark2>
<Subscript>p</Subscript> flexibel. Ein Gewichtskonzept kontrolliert die funktionelle Abhängigkeit. Für die Funktionsschätzung kann ein gewichtetes Mittel unter Einsatz einer Kernfunktion <Mark2>K</Mark2> zur Anwendung gebracht werden. Ein typisches Beispiel (für den Fall eines Prädiktors, <Mark2>p</Mark2>=1) ist der Nadaraya-Watson-Kernschätzer <TextLink reference="36"/>, <TextLink reference="73"/>, definiert durch </Pgraph>
<Pgraph>
<Mark2>
<ImgLink imgNo="1" imgType="inlineFigure"/>
</Mark2>
</Pgraph>
<Pgraph>wobei <Mark2>n</Mark2> für den Stichprobenumfang und <Mark2>h</Mark2> für die Bandweite stehen (<Mark2>h</Mark2>&gt;0). Die Bandweite kontrolliert die Glattheit der Funktionsschätzung. Mittels Nadaraya-Watson-Kernschätzer wird eine kontinuierliche Funktion erzeugt (unter der Annahme einer kontinuierlichen Kernfunktion <Mark2>K</Mark2>). Der Kern <Mark2>K</Mark2> ist eine beschränkte, integrierbare, reellwertige Funktion der Form </Pgraph>
<Pgraph>
<Mark2>
<ImgLink imgNo="2" imgType="inlineFigure"/>
</Mark2>
</Pgraph>
<Pgraph>Üblicherweise wird für <Mark2>K</Mark2> eine symmetrische Wahrscheinlichkeitsdichtefunktion gewählt. Hier sind einige wichtige Beispiele:</Pgraph>
<Pgraph>
<Mark2>
<ImgLink imgNo="3" imgType="inlineFigure"/>
</Mark2> </Pgraph>
<Pgraph>In Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> sind sie dargestellt.</Pgraph>
<Pgraph>Es existieren auch andere Kernschätzer, wie beispielsweise der Gasser-Müller-Kernschätzer (siehe später) oder der Parzen-Rosenblatt-Kernschätzer <TextLink reference="38"/>, <TextLink reference="42"/>.</Pgraph>
<Pgraph>Darüber hinaus gibt es noch weitere wichtige Glättungskonzepte. Hier sind die glättenden Splines und die lokalen Polynome zu nennen (für eine Einführung siehe Kapitel 1 und 9 in <TextLink reference="49"/>).</Pgraph>
<Pgraph>Die Optimierung eines Kleinstquadratekriteriums mit Straffunktion führt zu glättenden Splines und stellt einen völlig anderen Zugang dar. Dieser Glätter kann daher nicht als Ergebnis eines gewichteten Mittelungsprozesses verstanden werden. Als Beispiel betrachten wir die kubische Splineregression mit dem Kriterium </Pgraph>
<Pgraph>
<Mark2>
<ImgLink imgNo="4" imgType="inlineFigure"/>
</Mark2>
</Pgraph>
<Pgraph>wobei &#402; für die glatte Funktion und &#955; (&#955;&gt;0) für den Glättungsparameter (hat die selbe Aufgabe wie die Bandweite bei den Kernschätzern) stehen. Über dieses Kriterium wird ein Ausgleich zwischen der Datentreue und der Glattheit von &#402; in Abhängigkeit von &#955; angestrebt. Die Lösung dieses Optimierungsproblems ist eine glättende Splinefunktion. James R. Thompson und Richard A. Tapia haben sich 1978 erstmals systematisch mit Optimierungsaufgaben unter Straftermen auseinandergesetzt (siehe <TextLink reference="62"/>). Der wahrscheinlich erste moderne Beitrag zu glättenden Splines ist Wahba &amp; Wold (1975) <TextLink reference="67"/>.</Pgraph>
<Pgraph>Lokale Polynome sind wiederum anders motiviert. Erste Arbeiten im statistischen Regressionskontext gehen auf die 70er Jahre des vorigen Jahrhunderts zurück (insbesondere seien Stone (1977) <TextLink reference="61"/> und Cleveland (1979) <TextLink reference="3"/> erwähnt). Die Grundidee ist, dass eine glatte Funktion durch ein Polynom niedrigen Grades in der Nachbarschaft eines beliebigen Punktes <Mark2>x</Mark2> gut approximiert werden kann. Als Beispiel soll die lokale lineare Approximation </Pgraph>
<Pgraph>
<Mark2>
<ImgLink imgNo="5" imgType="inlineFigure"/>
</Mark2>
</Pgraph>
<Pgraph>für <Mark2>
<ImgLink imgNo="6" imgType="inlineFigure"/>
</Mark2> (<Mark2>h</Mark2> ist die Bandweite) dienen. Diese Anpassung kann durch lokal gewichtete Kleinstquadrate erfolgen. Die Gewichte werden durch einen Kern <Mark2>K</Mark2> wie bei den Kernschätzern festgelegt. Die Koeffizienten a<Subscript>0</Subscript> und a<Subscript>1</Subscript> ergeben sich aus der Minimierung von </Pgraph>
<Pgraph>
<Mark2>
<ImgLink imgNo="7" imgType="inlineFigure"/>
</Mark2>
</Pgraph>
<Pgraph>Eine aktuelle Diskussion der lokalen polynomialen Regression findet sich in Cleveland &amp; Loader (1996) <TextLink reference="2"/>.</Pgraph>
<Pgraph>Unterschiedlichen Glättern, wie Kernschätzern oder die noch nicht erwähnten Nearest-Neighbour-Schätzern, kommt auch Bedeutung für die Dichteschätzung zu, die folgende Ziele verfolgt: Die Aufdeckung von Formmerkmalen in Daten mittels einer Dichtefunktion &#402;(<Mark1>
<Mark2>X</Mark2>
</Mark1>) sowie die Vorhersage von <Mark2>Y</Mark2> aus der gemeinsamen Dichtefunktion &#402;(<Mark1>
<Mark2>X</Mark2>
</Mark1>,<Mark2>Y</Mark2>). Analog zur Regression, wenn die Daten keiner bekannten parametrischen Form (z.B. der Normalverteilung) folgen, ist nichtparametrische Dichteschätzung angezeigt. Allgemein kann gesagt werden, dass parametrische Schätzer im Vergleich zu nichtparametrischen dazu tendieren, niedrigere Varianz zu haben. Ist jedoch die unterstellte Form falsch, wächst der Bias beträchtlich. Nichtparametrische Methoden haben natürlich auch einen Bias. Er verschwindet jedoch asymptotisch für eine kontinuierliche Zielfunktion. Hervorragende Einführungen in die nichtparametrische Dichteschätzung finden sich in Silverman (1986) <TextLink reference="54"/>, Simonoff (1996) <TextLink reference="57"/> und Scott (2004) <TextLink reference="51"/>.</Pgraph>
<Pgraph>Die hier vorgestellten Glättungsverfahren beruhen auf unterschiedlichen mathematisch-statistischen Konzeptionen. Annahmen wie auch Interpretationsmöglichkeiten sind daher nicht einheitlich. Glättende Splines lassen sich auch Bayesianisch motivieren und zeigen ebenso Zusammenhänge mit stochastischen Prozessen <TextLink reference="29"/>, <TextLink reference="31"/>. Zum Teil können jedoch die hier genannten formalen Glättungskonzepte ineinander übergeführt werden (so genannte Kernäquivalenz; siehe die grundlegende Arbeit von Silverman <TextLink reference="56"/>). Oft stimmen die resultierenden Schätzer überein, aber die Schätzfehler können abhängig vom Modell sein. Im Bayesschen Kontext bei apriori-Verteilungen auf Glättungsparameter ergeben sich größere Fehler <TextLink reference="65"/>.</Pgraph>
<Pgraph>Die Ansätze ergänzen einander in dem Sinne, dass sie für spezifische Anwendungen (z.B. in der Biometrie) unterschiedlich geeignet sind und differenzierte numerische Anforderungen stellen (bedeutend für Algorithmen- und Softwareentwicklung). Wie oben erwähnt, die Behandlung von Schätzfehlern kann in den einzelnen Glättungsansätzen unterschiedlich sein, was auch die Interpretation von Ergebnissen beeinflusst.</Pgraph>
<Pgraph>Hier sei noch eine abschließende Bemerkung erlaubt: Unabhängig vom angewandten Glättungskonzept stellt sich die Frage wie man die Bandweite <Mark2>h</Mark2> bzw. den Glättungsparameter &#955; optimal wählt. Beiden Parametern kommt die zentrale Rolle zu, den Ausgleich zwischen der Varianz und dem Bias der zu schätzenden glatten Funktion bezüglich der Extreme 'Interpolation' einerseits und 'maximaler Glattheit' (i.e. Linearität) andererseits zu kontrollieren. Die Literatur zur Theorie und Praxis der Wahl von <Mark2>h</Mark2> und &#955; nimmt daher breiten Raum ein. Eine Diskussion würde den Rahmen dieses Artikels sprengen. Einen guten Überblick bieten die Kapitel 2 und 4 in Schimek (2000) <TextLink reference="49"/>. Sehr zu empfehlen ist auch der kritische Artikel von Marron (1996) <TextLink reference="34"/>.</Pgraph>
</TextBlock>
    <TextBlock name="Die historischen Anfänge" linked="yes">
      <MainHeadline>Die historischen Anfänge</MainHeadline>
<Pgraph>Erste Glättungsideen finden sich bereits im 19. Jahrhundert. Nur was von Hand berechenbar war, konnte sich damals durchsetzen. Ein frühes Anwendungsgebiet war die Versicherungsmathematik (Berechnung von Mortalitäts- und Morbiditätsraten). Von lokaler polynomialer Anpassung wird bereits in de Forest (1873) <TextLink reference="5"/> und Gram (1883) <TextLink reference="18"/> berichtet. In diesem Zusammenhang hat sich J. Spencer 1904 in 'On the graduation of rates of sickness and mortality' <TextLink reference="60"/> erstmals mit der Bandweitenwahl auseinandergesetzt. Der erste Beitrag zur Splineregression geht auf E. Whittaker zurück: 'On a new method of graduation' <TextLink reference="74"/>. Er wurde im Jahre 1923 veröffentlicht.</Pgraph>
<Pgraph>Der älteste und am weitesten verbreitete Dichteschätzer ist das Histogramm. Bereits für das Jahr 1661 wird berichtet, dass John Graunt diese Methode in einem Vortrag bei der Royal Society in London mit dem Titel 'Bills of Mortality' verwendet habe (siehe <TextLink reference="62"/>, S. 2ff). Auch in diesem Fall war die Motivation eine demographische Aufgabenstellung.</Pgraph>
<Pgraph>Als weiteres historisch bedeutendes Anwendungsgebiet stellt sich die mathematische Lösung von Ausgleichs- und Interpolationsproblemen in den Naturwissenschaften dar. Ein verwandtes Aufgabenfeld war einiges später die Approximation von Funktionen in der damals neuen digitalen Computertechnik. Viele Probleme sind erst durch den Einsatz von Digitalcomputern wissenschaftlich interessant und numerisch handhabbar geworden. Es muss jedoch angemerkt werden, dass es sich damals üblicherweise nicht um stochastische Betrachtungen (also keine Berücksichtigung von Schätzfehlern) der Probleme gehandelt hat. Die zufallsbezogene Sichtweise ist der modernen Statistik ab den 60er Jahren des vorigen Jahrhunderts vorbehalten geblieben. Was die damit verbundenen Algorithmen angeht, konnte die rechenintensive Statistik auf einigen Vorarbeiten der numerischen Mathematik aufbauen (z.B. auf den bahnbrechenden Arbeiten für Splines von C. de Boor; siehe Monographie de Boor <TextLink reference="4"/>).</Pgraph>
</TextBlock>
    <TextBlock name="Statistisches Glätten und Biometrie" linked="yes">
      <MainHeadline>Statistisches Glätten und Biometrie</MainHeadline>
<SubHeadline>Frühe Entwicklungen</SubHeadline>
<Pgraph>Am Anfang standen theoretische Fragestellungen im Kontext von Kernschätzern, univariate Probleme betreffend (i.e. ein Prädiktor <Mark2>X</Mark2>), im Vordergrund. Abgesehen von den schon oben erwähnten Arbeiten von Nadaraya (1964) <TextLink reference="36"/> und Watson (1964) <TextLink reference="73"/> sind hier folgende Beiträge hervorzuheben: Rosenblatts (1956) 'Remarks on some nonparametric estimates of a density function' <TextLink reference="42"/>, der weitere Arbeiten einer ganzen Generation von Forschern/Forscherinnen folgen sollten (siehe später); Parzens (1962) 'On estimation of probability density functions and mode' <TextLink reference="38"/> und Priestleys &amp; Chaos (1972) 'Nonparametric curve fitting' <TextLink reference="39"/>. Erst im Laufe der 1970er Jahre wird dieses Forschungsgebiet zunehmend perzipiert.</Pgraph>
<Pgraph>Sieht man von Whittaker (1923) <TextLink reference="74"/> ab, eine Arbeit, die heute im Lichte der Splinemethodik gesehen wird, ist um 1970 die Geburtsstunde der glättenden Splines zu veranschlagen. Als Pioniere sind George Kimeldorf und Grace Wahba zu nennen. Ihre Titel lauteten 'Spline functions and stochastic processes' <TextLink reference="30"/> sowie 'A correspondence between Bayesian estimation of stochastic processes and smoothing by splines' <TextLink reference="29"/>. Weitere wichtige Arbeiten hat Grace Wahba als Alleinautorin 1978 <TextLink reference="71"/>, 1979 <TextLink reference="70"/>, 1983 <TextLink reference="69"/> und 1985 <TextLink reference="68"/> veröffentlicht. Wahba, die Physikerin und spätere Ordinaria für Statistik an der University of Wisconsin-Madison, ist zweifelsohne eine Wegbereiterin der Glättungsverfahren in der modernen uni- und multivariaten Statistik. Wie schon die Arbeiten mit Kimeldorf verraten, liegt ihr Hauptinteresse auf Splineglättung mit Bezug zur Vorhersage stochastischer Prozesse und zum Bayes-Ansatz. Wahbas Monographie von 1990 'Spline Models for Observational Data' <TextLink reference="72"/> verschafft einen guten Überblick über den Beitrag ihrer 'Schule' (nicht wenige ihrer einstigen Doktoranden sind heute selbst als Professoren Vertreter dieser Spezialisierung). Ihren Arbeiten ist es zu verdanken, dass diese Methodik zunehmend auch in Europa akademische Verbreitung gefunden hat. Viele ihrer Ideen fanden Ende der 1970er Jahre bereitwillige Aufnahme bei theoretischen Statistikern wie Bernard W. Silverman (damals University of Bath, UK). Mit seiner Arbeit 'Some aspects of the spline smoothing approach to non-parametric regression curve fitting' aus 1985 <TextLink reference="55"/> hat er das Feld für praktische Anwendungen bestellt. Auf ihn geht auch die erste Implementation glättender Splines (FORTRAN Programm 'BATHSPLINE') zurück <TextLink reference="47"/>. Weiters sind seine Monographie 'Density Estimation for Statistics and Data Analysis' aus 1986 <TextLink reference="54"/> und gemeinsam mit Peter Green (University of Bristol, UK) sein Buch aus 1994 'Nonparametric Regression and Generalized Linear Models' <TextLink reference="19"/> zu nennen. Beide Werke haben bis heute großen Einfluss auf die Biometrie, vor allem auch wegen der enthaltenen Beispiele. Neben nordamerikanischen und britischen Statistikern/Statistikerinnen ist hier vor allem ein lange Zeit in Deutschland wirkender Schweizer, Theo Gasser, zu nennen (siehe später).</Pgraph>
<Pgraph>Warum hat es seit den ersten Anfängen so lange gedauert, bis Forschungsergebnisse zu Glättungsmethoden in der Statistik aufgegriffen wurden? </Pgraph>
<Pgraph>Die Antwort ist einfach und besteht aus zwei Teilen: (1) Die mathematische und ebenso die angewandte Statistik waren bis weit in die 80er Jahre des vorigen Jahrhunderts, in Deutschland noch länger, von klassischen parametrischen Verfahren dominiert. (2) Die für die nichtparametrische Statistik erforderliche Rechnerleistung war die längste Zeit, mangels computertechnischer Grundlagen nicht ausreichend. Weiters ist noch das geringe Interesse an exploratorischen und graphischen Verfahren außerhalb der USA zu nennen. Seit den 80er Jahren - dank des enormen Fortschritts der Hardware- und Softwareentwicklung und dem Wechsel von Mainframes zu Arbeitsplatzrechnern - ist es regelrecht zu einem Boom, vorerst in ausgewählten Zentren in den USA, in Kanada, im UK und in Australien gekommen. Die Ausrichtung war sowohl mathematische Statistik als auch rechenintensive Statistik. Noch gab es nur wenige Anwendungen weil die Literatur sehr formal und geeignete Software noch nicht kommerziell erhältlich war.</Pgraph>
<Pgraph>Mit der weiteren, auch geographischen Verbreitung dieser Forschungsbereiche, vor allem auf dem europäischen Festland, wurden neue Themen aufgegriffen, unter ihnen Vorschläge für alternative (vor allem lokale) univariate Glätter, für die Wahl der Bandweite bzw. des Glättungsparameters und zunehmend auch für multivariate Probleme. Viele dieser Entwicklungen basierten immer noch auf der Annahme unabhängig identisch verteilter Fehler, was biometrischen Anwendungen häufig widerspricht.</Pgraph>
<Pgraph>
<Mark1>Der Beitrag Deutschlands</Mark1>
</Pgraph>
<Pgraph>Ende der 1970er Jahre entstand an der Ruprecht-Karls-Universität Heidelberg eine erste Initiative unter der Leitung des schon erwähnten Theo Gasser. Es hätte aber auch anders kommen können, würde Gasser in den 1980er Jahren einen an ihn erteilten Ruf der Karl-Franzens-Universität Graz angenommen haben, was einen großen Gewinn für die österreichische biostatistische Forschung bedeutet hätte.</Pgraph>
<Pgraph>Für den deutschen Sprachraum selten wurde in Heidelberg anwendungsorientiert theoretische Statistik, und das war völlig neu, ausgerichtet auf biometrische Fragestellungen betrieben! Diese Aktivitäten sollten bald Aufwind bekommen durch den Sonderforschungsbereich 123 'Stochastische Mathematische Modelle' (1978-1992; Sprecher Willi Jäger) an der Ruprecht-Karls-Universität Heidelberg. In Gassers Teilprojekt 'Methoden der Zeitreihenanalyse' war der Fokus auf Kernschätzverfahren, Residualanalyse und Methoden der Bandweitenwahl, jeweils unter der Annahme zeitabhängiger Fehler. Wichtige Anwendungen waren die Modellierung von biologischen Wachstumsprozessen und die Analyse von EEG-Daten. Besonders hervorzuheben ist eine frühe Arbeit mit dem Titel 'Kernel estimation of regression functions' <TextLink reference="14"/>. Dieser Beitrag ist in einem von Gasser und von dem schon erwähnten Pionier Murray Rosenblatt herausgegebenen Sammelband, dem historisch ersten Buch über Glättungsverfahren in der Statistik, 1979 erschienen. In dem Artikel mit Hans Georg Müller, einem der Doktoranden Gassers der ersten Stunde und heute Professor für Biostatistik an der University of California - Davis, wird ein Kernschätzer vorgeschlagen, der in der Folge in der Statistik unter der Bezeichnung Gasser-Müller-Schätzer bekannt geworden ist.</Pgraph>
<Pgraph>Andere inzwischen selbst eine Professur bekleidende Doktoranden und Mitarbeiter von damals sind Wolfgang Härdle (Humboldt Universität zu Berlin) und Alois Kneip (Universität Bonn). Beide sind heute außerhalb der Biometrie beschäftigt, letzterer jedoch weiterhin an der Funktionaldatenanalyse interessiert. Weitere, auch für biometrische Anwendungen, bedeutende Arbeiten sind von Gasser et al. (1984) 'Nonparametric regression analysis of growth curves' <TextLink reference="12"/>, von Gasser, Müller &amp; Mammitzsch (1985) 'Kernels for nonparametric curve estimation' <TextLink reference="13"/>, von Gasser, Sroka &amp; Jennen-Steinmetz (1986) 'Residual variance and residual pattern in nonlinear regression' <TextLink reference="16"/> und von Gasser, Kneip &amp; Köhler (1991) 'A flexible and fast method for automatic smoothing' <TextLink reference="11"/>. Gassers Koautor Volker Mammitzsch (Phillips-Universität Marburg) zählt ebenfalls zu den ersten Professoren Deutschlands, die sich eingehend mit Glättungsmethoden auseinandergesetzt haben.</Pgraph>
<Pgraph>Gasser, nunmehr an der Universität Zürich tätig, ist der unangefochtene Doyen der deutschsprachigen Glätterszene. Vor allem in der Biometrie ist sein internationaler Einfluss unübersehbar. Ein weiterer facheinschlägig forschender Biostatistiker an der Universität Zürich ist Burkhardt Seifert (z.B. <TextLink reference="52"/>, <TextLink reference="53"/>).</Pgraph>
<Pgraph>Was die Splinemethodik angeht, ist an der Schwelle zu den jüngeren Entwicklungen eine deutsche Mathematikerin zu erwähnen, Angelika van der Linde (Universität Bremen). Sie hat diverse Ideen Grace Wahbas und Bernard W. Silvermans aufgenommen, aus Bayesianischer Sicht weiterentwickelt und für biometrische Anwendungen fruchtbar gemacht <TextLink reference="64"/>, <TextLink reference="63"/>.</Pgraph>
<Pgraph/>
<SubHeadline>Jüngere Entwicklungen</SubHeadline>
<Pgraph>Für die 1990er Jahre kann man zweifelsohne von einem internationalen Innovationsschub sprechen. Neben Nordamerika, Australien und Europa etablierte sich auch der asiatische Raum. Computationalen Problemen wird zunehmend Aufmerksamkeit gezollt. Aus mathematisch-statistischer Sicht steht diese Periode vor allem für rechenintensive multivariate Ansätze. Zu zentralen Herausforderungen werden der so genannte 'Fluch der Dimensionalität', die mehrdimensionale Bandweitenwahl und effiziente statistische Algorithmen (inklusive deren Umsetzung in professioneller Software).</Pgraph>
<Pgraph>Seit den von Wahba unter strikten Annahmen eingeführten Thin-Plate-Splines (siehe z.B. <TextLink reference="72"/>) sind die technischen Schwierigkeiten, die durch mehrdimensionales Glätten aufgeworfen werden, bekannt. Bislang ist unter keiner der bekannten Glättungsmethoden eine allgemein befriedigende praktische Lösung in Sicht. Es liegt daher nahe, das Problem durch geeignete Annahmen (vor allem Additivität) zu vereinfachen. Diese Idee wurde von den nordamerikanischen Biostatistikern Trevor Hastie und Robert Tibshirani mit ihren generalisierten additiven Modellen (GAM) erfolgreich umgesetzt. Die dazu notwendigen Vorarbeiten fanden eine monographische Zusammenfassung in 'Generalized Additive Models' <TextLink reference="26"/>. Aus numerischer Sicht hat der wenig aufwendige Backfitting-Algorithmus den GAM zum Durchbruch verholfen (erstmals vorgeschlagen in Breiman &amp; Friedman <TextLink reference="1"/>). Überdies hat Hastie mit GAIM das erste Programm zur Auswertung solcher Regressionsmodelle zur Verfügung gestellt, das de-facto in unveränderter Form bis heute die Basis für die Modellschätzung in S-Plus bildet. Auch in XploRe <TextLink reference="21"/> wurden geeignete Algorithmen realisiert.</Pgraph>
<Pgraph>Diese Kombination aus Theorie, Algorithmus und praktischer Umsetzung in Verbindung mit einigen interessanten biometrischen Anwendungen hat dieser Modellklasse zu einem enormen Aufschwung verholfen. Es gibt zwei Anwendungsfelder, in denen nichtparametrische Glättungsverfahren, insbesondere GAM, zur Standardmethodik gehören: (1) Die epidemiologische Modellierung von Luftschadstoffen, inbesondere von ultrafeinen Partikeln (engl. 'Particulate Matter'; <TextLink reference="50"/>, <TextLink reference="58"/>) und Modellierungen in der Pflanzenökologie <TextLink reference="76"/>. Die gehäufte praktische Anwendung führt stets zu statistischen Erweiterungen. So ist man beispielsweise in der Epidemiologie an die Grenzen der etablierten GAM-Methodik gestoßen, was zu neuen Ansätzen, so z.B. zu den penalisierten GAM geführt hat <TextLink reference="35"/>, <TextLink reference="7"/>. In der Pflanzenökologie wiederum hat es eine Erweiterung von GAM zu vektoriellen GAM gegeben <TextLink reference="75"/>.</Pgraph>
<Pgraph>Weitere Entwicklungen der letzten Jahre sind statistische Tests und Methoden der Modellkritik bei glättender Regression. Laufend wird an Algorithmen für neue Aufgaben und an Effizienzverbesserungen bekannter numerischer Methoden gearbeitet. Auch Glättungsverfahren unter Nicht-Standard-Annahmen (z.B. für zeitliche und räumliche Daten) nehmen einen breiten Raum ein.</Pgraph>
<Pgraph>Bei vielen medizinischen und biowissenschaftlichen Anwendungen spielt die Schätzung von Regressionskoeffizienten und ihren Schätzfehlern (z.B. zur Risikoabschätzung) eine große Rolle. Es darf daher nicht wundern, dass es seit geraumer Zeit Bestrebungen gibt, die Flexibilität der nichtparametrischen Ansätze mit den Vorteilen parametrischer Modelle (generalisierte lineare Modelle und gemischte Modelle) zu verbinden. Solche Konzepte führen die Bezeichnung 'semiparametrisch'. Die wichtigste Person auf diesem Gebiet war anfänglich Paul Speckman (University of Missouri - Columbia). Seine Arbeit 'Kernel smoothing in partial linear models' von 1988 <TextLink reference="59"/> ist nicht nur ein Meilenstein in der theoretischen Entwicklung, sondern auch für die biometrische Forschungsgemeinde von Nutzen. Bei Schimek (2000) <TextLink reference="45"/> finden sich numerisch effiziente Algorithmen. Um Verallgemeinerungen dieser Modelle hat sich die Biostatistikerin Joan Staniswalis (University of Texas at El Paso) verdient gemacht (für einen Überblick siehe Schimek <TextLink reference="43"/>, S. 293-312). Derzeit erleben die semiparametrischen Modelle einen Boom in der Umweltepidemiologie. Der Autor sieht für diese Modellklasse in den gesamten Biowissenschaften eine große Zukunft.</Pgraph>
<Pgraph>Weiters ist zu beobachten, dass die grundlegenden Glättungsverfahren für Dichte- und Regressionsschätzung Standardwerkzeuge der Statistik geworden sind (in vielen Softwarepaketen realisiert) und dass heute Glätter zunehmend als Bausteine von komplexen non- oder semiparametrischen oder gemischten Modellen, auch für die Analyse von Longitudinaldaten, Verwendung finden. Darüber hinaus können wir sehen, dass Glätter mit anderen formalen Konzepten (Bayes, Kalman-Filter, neuronale Netze, statistisches Lernen) kombiniert werden <TextLink reference="9"/>, <TextLink reference="49"/>, <TextLink reference="25"/>, <TextLink reference="32"/>, <TextLink reference="6"/>. Für die Biometrie wichtig sind auch glättungsbasierte nonparametrische Ansätze für die Hazardregression <TextLink reference="37"/>, (<TextLink reference="9"/>, Kapitel 9), (<TextLink reference="10"/>, Kapitel 5) und die variierenden Koeffizientenmodelle <TextLink reference="27"/>. Immer mehr biowissenschaftliche Anwendungsfelder werden von derartigen Methoden durchdrungen. Das gilt auch für die neuen Herausforderungen durch hochdimensionale Schätz- und Vorhersageprobleme, wie sie in der Bioinformatik vorkommen (für einen Überblick siehe <TextLink reference="48"/>).</Pgraph>
<Pgraph>Eine neuere Entwicklung mit noch wenig genutztem Potential ist die Funktionaldatenanalyse. Sie geht im Wesentlichen auf James O. Ramsay (McGill University Montreal) und Bernard W. Silverman zurück. Eine gute Zusammenfassung der Methoden findet sich in ihrer Monographie von 1997 <TextLink reference="41"/>. Zahlreiche Anwendungen, vor allem in den Biowissenschaften (betreffend Pathologie, Wachstum, Physiologie, 'Biometrie' im Sinne von Personenmerkmalserkennung) beinhaltet ihr Buch von 2002 <TextLink reference="40"/>. Auch zur Funktionaldatenanalyse gibt es von Theo Gasser Beiträge bis in die jüngste Zeit (z.B. <TextLink reference="17"/>).</Pgraph>
<Pgraph>Abschließend sei hier noch eine Bemerkung zur Berechenbarkeit von Glättungsverfahren erlaubt. Es besteht kein Zweifel, dass derartige Methoden numerisch anspruchsvoll und äußerst rechenintensiv sind. Ihre Berechenbarkeit verdanken wir jedoch nicht nur der Leistungsfähigkeit heutiger Digitalcomputer, sondern auch dem Fortschritt bei den statistischen Algorithmen. Es würde den Rahmen dieser Betrachtung sprengen, hier auf die historischen Details einzugehen (eine aktuelle Aufarbeitung der Thematik findet sich in <TextLink reference="20"/>). Wichtige deutsche Beiträge zur effizienten Berechnung von Kernschätzern gehen auf den schon erwähnten Statistiker Wolfgang Härdle zurück. Sein Buch 'Smoothing Techniques. With Implementations in S' aus 1990 <TextLink reference="24"/> hat erstmals Algorithmen für Glättungsverfahren in das Zentrum der Betrachtung gestellt. Die statistische Programmiersprache S, damals noch wenig verbreitet im deutschen Sprachraum, ist heute vor allem durch das kommerzielle S-Plus und seine nichtkommerzielle Variante R zum de-facto Standard in der modernen statistischen Analyse, aber auch für das Prototyping von Algorithmen, geworden. Die Verfügbarkeit der Sprachen S und R hat einen enormen Einfluss auf die Verbreitung der Glättungsverfahren ausgeübt. Wichtige Bücher für den Biostatistiker/die Biostatistikerin sind Venables &amp; Ripley (2002) <TextLink reference="66"/> sowie Everitt &amp; Rabe-Hesketh (2001) <TextLink reference="8"/>.</Pgraph>
<Pgraph>
<Mark1>Der Beitrag Deutschlands</Mark1>
</Pgraph>
<Pgraph>Die 1990er Jahre in Deutschland sind von der Gründung dreier statistischer Sonderforschungsbereiche gekennzeichnet, die interessanterweise alle zu einem gewissen Teil auch Glättungsmethoden zum Forschungsgegenstand erkoren haben. Der erste wurde an der Humboldt Universität zu Berlin (SFB 373 'Quantifikation und Simulation ökonomischer Prozesse'; 1994-2003, Sprecher Wolfgang Härdle) eingerichtet. Die beiden anderen sind an der Ludwig-Maximilians-Universität München (SFB 386 'Statistische Analyse diskreter Strukturen'; Sprecher Ludwig Fahrmeir) und an der Universität Dortmund (SFB 475 'Komplexitätsreduktion in multivariaten Datenstrukturen'; Sprecherin Ursula Gather) beheimatet. Die beiden noch aktiven Sonderforschungsbereiche integrieren biometrische Teilprojekte. Auch nach dem Ende des Sonderforschungsbereichs 123 und Theo Gassers Ruf an die Universität Zürich sind einschlägige Forschungsaktivitäten an der Ruprecht-Karls-Universität Heidelberg noch bis 2003 zu beobachten (z.B. theoretische Beiträge zu GAM <TextLink reference="33"/>). Der Wechsel Enno Mammens an die Universität Mannheim hinterlässt eine Lücke in Heidelberg, was Glättungsverfahren anbelangt.</Pgraph>
<Pgraph>Leider ist ein stetiger Rückgang einschlägiger Forschungsaktivitäten an allen Universitätsstandorten, vielleicht abgesehen von München, zu verzeichnen.</Pgraph>
</TextBlock>
    <TextBlock name="Schlussfolgerungen" linked="yes">
      <MainHeadline>Schlussfolgerungen</MainHeadline>
<Pgraph>In Deutschland kann man im internationalen Vergleich immer noch Vorbehalte gegenüber Glättungsmethoden in der akademischen Statistik, die ja traditionell mathematisch orientiert ist, orten. Die vielfältigen alternativen formalen Konzepte bzw. Modellierungen scheinen vielen Mathematikern/Mathematikerinnen nicht logisch zwingend zu sein. Noch größer ist der Widerstand gegen Baysianische Ansätze wegen derer vermeintlicher Subjektivität. Völlig anders ist die Situation an angloamerikanischen Universitäten wo den Glättungsverfahren in Forschung, Lehre und Anwendung breiter Raum gegeben wird.</Pgraph>
<Pgraph>Glättungsmethoden haben zweifelsohne ein großes Anwendungspotential. Anwendungsgeleitete statistische Forschung ist im deutschen Sprachraum noch immer nicht der Regelfall. Akademische Statistiker/Statistikerinnen sind überwiegend ausgebildete Mathematiker/Mathematikerinnen, die sich dem Fach Statistik erst später genähert haben. Als solche zeigen sie natürlich spezifische fachliche Präferenzen und eher geringen Bezug zu Datenproblemen aus der Praxis.</Pgraph>
<Pgraph>Nicht nur in der angloamerikanischen Welt ist die Tendenz zu erkennen, dass Absolventen/Absolventinnen statistischer Studiengänge auch als akademische Lehrer/Lehrerinnen bestellt werden. Die Berufung einer solchen Person ist in Deutschland die Ausnahme. Glättungsmethoden sind auch in der akademischen Lehre wenig verankert. Daher muss mittelfristig mit einem Rückgang des wissenschaftlichen Nachwuchses auf diesem Gebiet und mit einer Abnahme des Einsatzes dieser Methoden gerechnet werden. Es ist zu befürchten, dass derartige Kompetenz gerade dort wo sie am meisten gebraucht werden wird, nämlich in den modernen Biowissenschaften einschließlich der Genforschung, nicht ausreichend vorhanden sein wird.</Pgraph>
<Pgraph>Gründe für einen Rückgang der einschlägigen Forschungsaktivitäten in Deutschland in den letzten zehn Jahren sieht der Verfasser in einer Verlagerung des akademischen Interesses auf neue Forschungsgebiete (z.B. Bioinformatik: die neu eingerichteten Studiengänge boomen, bieten jedoch nur wenig Ausbildung in Biostatistik), in der forcierten Sparpolitik im Hochschulwesen und in der stärkeren Konzentration der statistischen Forschung an wenigen Standorten, was viele Mittel der Forschungsförderung bindet.</Pgraph>
<Pgraph>Eine erwartbare Beobachtung ist die im internationalen Vergleich geringe Zahl publizierter Anwendungen deutscher Autoren/Autorinnen. Die Biometrie als anwendungsorientiertes Fach würde viele Perspektiven für den vorteilhaften Einsatz von Glättungsmethoden bieten. Beispielsweise in den Programmheften der Biometrischen Kolloquien der Deutschen Region der Internationalen Biometrischen Gesellschaft ist ein gehäuftes Auftreten von einschlägigen Beiträgen nur Mitte der 1980er bis Mitte der 1990er Jahre zu registrieren. Betrachtet man die International Biometric Conference in Freiburg 2002, die das Biometrische Kolloquium inkludiert hat <TextLink reference="28"/>, stehen einige einschlägige (auch eingeladene) Vorträge im internationalen Teil keinem einzigen im deutschen Teil gegenüber. Auch bei den Arbeitstagungen über Methoden und Werkzeuge der Informatik für die Statistik auf der Reisensburg ist derselbe Trend zu erkennen.</Pgraph>
<Pgraph>Ähnliches gilt auch für die europäischen COMPSTAT Symposien der International Association for Statistical Computing, die auch Entwicklungen im deutschen Sprachraum widerspiegeln. In den Proceedings des Berliner Symposiums im Jahr 2002 <TextLink reference="22"/> findet sich kein einziger deutscher Beitrag zum Glätten im weitesten Sinn, wohl aber einige (einschließlich eingeladener) von Forschern/Forscherinnen anderer Nationalitäten. Eine COMPSTAT Spezialveranstaltung zum Thema 'Smoothing' fand das letzte Mal 1994 auf dem österreichischen Semmering statt <TextLink reference="23"/>. An dieser Stelle sollte nicht verschwiegen werden, dass seither international eine Vielzahl theoretischer Ergebnisse vorgelegt und zahlreiche neue Anwendungen aufgezeigt worden sind. Die Schweiz und Österreich folgen leider dem für Deutschland aufgezeigten Muster.</Pgraph>
</TextBlock>
    <TextBlock name="Danksagung" linked="yes">
      <MainHeadline>Danksagung</MainHeadline>
<Pgraph>Der Verfasser möchte zwei anonymen Gutachtern für wertvolle Literaturhinweise und kritische Anmerkungen danken. Ebenso gilt sein Dank Dr. Gerhard Bachmaier (Medizinische Universität Graz) für die Konvertierung des unter LATEX erzeugten Manuskripts in ein Worddokument.</Pgraph>
</TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Breiman L</RefAuthor>
        <RefAuthor>Friedman JH</RefAuthor>
        <RefTitle>Estimating optimal transformations for multiple regression and correlation (with discussion)</RefTitle>
        <RefYear>1985</RefYear>
        <RefJournal>J Amer Statist Assoc</RefJournal>
        <RefPage>580-619</RefPage>
        <RefTotal>Breiman L, Friedman JH. Estimating optimal transformations for multiple regression and correlation (with discussion). J Amer Statist Assoc. 1985;80:580-619.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>de Boor C</RefAuthor>
        <RefTitle/>
        <RefYear>1978</RefYear>
        <RefBookTitle>A Practical Guide to Splines</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>de Boor C. A Practical Guide to Splines. New York: Springer; 1978.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Cleveland WS</RefAuthor>
        <RefTitle>Robust locally weighted regression and smoothing scatterplots</RefTitle>
        <RefYear>1979</RefYear>
        <RefJournal>J Amer Statist Assoc</RefJournal>
        <RefPage>829-36</RefPage>
        <RefTotal>Cleveland WS. Robust locally weighted regression and smoothing scatterplots. J Amer Statist Assoc. 1979;74:829-36.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Cleveland WS</RefAuthor>
        <RefAuthor>Loader C</RefAuthor>
        <RefTitle>Smoothing by Local Regression: Principles and Methods</RefTitle>
        <RefYear>1996</RefYear>
        <RefBookTitle>Statistical Theory and Computational Aspects of Smoothing</RefBookTitle>
        <RefPage>10-49</RefPage>
        <RefISBN/>
        <RefTotal>Cleveland WS, Loader C. Smoothing by Local Regression: Principles and Methods. In: Härdle W, Schimek MG, eds. Statistical Theory and Computational Aspects of Smoothing. Heidelberg: Physica-Verlag; 1996. p. 10-49.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Denison DGT</RefAuthor>
        <RefAuthor>Holmes CC</RefAuthor>
        <RefAuthor>Mallick BK</RefAuthor>
        <RefAuthor>Smith AFM</RefAuthor>
        <RefTitle/>
        <RefYear>2002</RefYear>
        <RefBookTitle>Bayesian Methods for Nonlinear Classification and Regression</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Denison DGT, Holmes CC, Mallick BK, Smith AFM. Bayesian Methods for Nonlinear Classification and Regression. New York: Wiley; 2002.</RefTotal>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>de Forest</RefAuthor>
        <RefTitle>On some methods of interpolation applicable to the graduation of irregular series</RefTitle>
        <RefYear>1873</RefYear>
        <RefBookTitle>Annual Report of the Board of Regents of the Smithsonian Institution for 1871</RefBookTitle>
        <RefPage>275-339</RefPage>
        <RefISBN/>
        <RefTotal>de Forest. On some methods of interpolation applicable to the graduation of irregular series. In: Annual Report of the Board of Regents of the Smithsonian Institution for 1871. 1873. p. 275-339.</RefTotal>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Eilers PHC</RefAuthor>
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle>Generalized additive models in particulate matter studies: statistical and computational perspectives</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Bulletin de l'Institut International de Statistique</RefJournal>
        <RefPage>332-5</RefPage>
        <RefTotal>Eilers PHC, Schimek MG. Generalized additive models in particulate matter studies: statistical and computational perspectives. Bulletin de l'Institut International de Statistique. 2003;54ème Session, Livraison 1:332-5.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Everitt B</RefAuthor>
        <RefAuthor>Rabe-Hesketh S</RefAuthor>
        <RefTitle/>
        <RefYear>2001</RefYear>
        <RefBookTitle>Analyzing Medical Data Using S-Plus</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Everitt B, Rabe-Hesketh S. Analyzing Medical Data Using S-Plus. New York: Springer; 2001.</RefTotal>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Fahrmeir L</RefAuthor>
        <RefAuthor>Tutz G</RefAuthor>
        <RefTitle/>
        <RefYear>1996</RefYear>
        <RefBookTitle>Multivariate Statistical Modelling based on Generalized Linear Models</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Fahrmeir L, Tutz G. Multivariate Statistical Modelling based on Generalized Linear Models. New York: Springer; 1996.</RefTotal>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Fan J</RefAuthor>
        <RefAuthor>Gijbels I</RefAuthor>
        <RefTitle/>
        <RefYear>1996</RefYear>
        <RefBookTitle>Local Polynomial Modelling and Its Applications</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Fan J, Gijbels I. Local Polynomial Modelling and Its Applications. London: Chapman &amp; Hall; 1996.</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Gasser T</RefAuthor>
        <RefTitle>Functional Data Analysis and Human Growth</RefTitle>
        <RefYear>2000</RefYear>
        <RefBookTitle>Proceedings of the XXth International Biometric Conference, Berkeley, California</RefBookTitle>
        <RefPage>251-3</RefPage>
        <RefISBN/>
        <RefTotal>Gasser T. Functional Data Analysis and Human Growth. In: International Biometric Society. Proceedings of the XXth International Biometric Conference, Berkeley, California. Vol. II. 2000. p. 251-3.</RefTotal>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Gasser T</RefAuthor>
        <RefAuthor>Kneip A</RefAuthor>
        <RefAuthor>Köhler W</RefAuthor>
        <RefTitle>A flexible and fast method for automatic smoothing</RefTitle>
        <RefYear>1991</RefYear>
        <RefJournal>J Amer Statist Assoc</RefJournal>
        <RefPage>643-52</RefPage>
        <RefTotal>Gasser T, Kneip A, Köhler W. A flexible and fast method for automatic smoothing. J Amer Statist Assoc. 1991;86:643-52.</RefTotal>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Gasser T</RefAuthor>
        <RefAuthor>Müller HG</RefAuthor>
        <RefTitle>Kernel estimation of regression functions</RefTitle>
        <RefYear>1979</RefYear>
        <RefBookTitle>Smoothing Techniques for Curve Estimation</RefBookTitle>
        <RefPage>23-68</RefPage>
        <RefISBN/>
        <RefTotal>Gasser T, Müller HG. Kernel estimation of regression functions. In: Gasser T, Rosenblatt M, eds. Smoothing Techniques for Curve Estimation. New York: Springer; 1979. p. 23-68.</RefTotal>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Gasser T</RefAuthor>
        <RefAuthor>Müller HG</RefAuthor>
        <RefAuthor>Köhler W</RefAuthor>
        <RefAuthor>Molinari L</RefAuthor>
        <RefAuthor>Prader A</RefAuthor>
        <RefTitle>Nonparametric regression analysis of growth curves</RefTitle>
        <RefYear>1984</RefYear>
        <RefJournal>Ann Statist</RefJournal>
        <RefPage>210-9</RefPage>
        <RefTotal>Gasser T, Müller HG, Köhler W, Molinari L, Prader A. Nonparametric regression analysis of growth curves. Ann Statist. 1984;12:210-9.</RefTotal>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Gasser T</RefAuthor>
        <RefAuthor>Müller HG</RefAuthor>
        <RefAuthor>Mammitzsch V</RefAuthor>
        <RefTitle>Kernels for nonparametric curve estimation</RefTitle>
        <RefYear>1985</RefYear>
        <RefJournal>J Roy Statist Soc</RefJournal>
        <RefPage>238-52</RefPage>
        <RefTotal>Gasser T, Müller HG, Mammitzsch V. Kernels for nonparametric curve estimation. J Roy Statist Soc. 1985;B 47:238-52.</RefTotal>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Gasser T</RefAuthor>
        <RefAuthor>Sroka L</RefAuthor>
        <RefAuthor>Jennen-Steinmetz C</RefAuthor>
        <RefTitle>Residual variance and residual pattern in nonlinear regression</RefTitle>
        <RefYear>1986</RefYear>
        <RefJournal>Biometrika</RefJournal>
        <RefPage>625-33</RefPage>
        <RefTotal>Gasser T, Sroka L, Jennen-Steinmetz C. Residual variance and residual pattern in nonlinear regression. Biometrika. 1986;73:625-33.</RefTotal>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Gasser T</RefAuthor>
        <RefAuthor>Rosenblatt M</RefAuthor>
        <RefTitle/>
        <RefYear>1979</RefYear>
        <RefBookTitle>Smoothing Techniques for Curve Estimation</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Gasser T, Rosenblatt M, eds. Smoothing Techniques for Curve Estimation. New York: Springer; 1979.</RefTotal>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Gram JP</RefAuthor>
        <RefTitle>Über Entwickelung reeller Functionen in Reihen mittels der Methode der kleinsten Quadrate</RefTitle>
        <RefYear>1883</RefYear>
        <RefJournal>J Math</RefJournal>
        <RefPage>41-73</RefPage>
        <RefTotal>Gram JP. Über Entwickelung reeller Functionen in Reihen mittels der Methode der kleinsten Quadrate. J Math. 1883;94:41-73.</RefTotal>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Green P</RefAuthor>
        <RefAuthor>Silverman BW</RefAuthor>
        <RefTitle/>
        <RefYear>1994</RefYear>
        <RefBookTitle>Nonparametric Regression and Generalized Linear Models</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Green P, Silverman BW. Nonparametric Regression and Generalized Linear Models. A Roughness Penalty Approach. London: Chapman &amp; Hall; 1994.</RefTotal>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Grossmann W</RefAuthor>
        <RefAuthor>Schimek MG</RefAuthor>
        <RefAuthor>Sint PP</RefAuthor>
        <RefTitle>The history of COMPSTAT and key-steps of statistical computing during the last 30 years</RefTitle>
        <RefYear>2004</RefYear>
        <RefBookTitle>COMPSTAT 2004</RefBookTitle>
        <RefPage>1-35</RefPage>
        <RefISBN/>
        <RefTotal>Grossmann W, Schimek MG, Sint PP. The history of COMPSTAT and key-steps of statistical computing during the last 30 years. In: Antoch J, ed. COMPSTAT 2004. Proceedings in Computational Statistics. Heidelberg: Physica-Verlag; 2004. p. 1-35.</RefTotal>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Hastie TJ</RefAuthor>
        <RefAuthor>Tibshirani RJ</RefAuthor>
        <RefTitle/>
        <RefYear>1990</RefYear>
        <RefBookTitle>Generalized Additive Models</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Hastie TJ, Tibshirani RJ. Generalized Additive Models. London: Chapman &amp; Hall; 1990.</RefTotal>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Hastie TJ</RefAuthor>
        <RefAuthor>Tibshirani RJ</RefAuthor>
        <RefTitle>Varying-coefficients models</RefTitle>
        <RefYear>1993</RefYear>
        <RefJournal>J Roy Statist Soc</RefJournal>
        <RefPage>757-96</RefPage>
        <RefTotal>Hastie TJ, Tibshirani RJ. Varying-coefficients models. J Roy Statist Soc. 1993;B 55:757-96.</RefTotal>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Härdle W</RefAuthor>
        <RefTitle/>
        <RefYear>1991</RefYear>
        <RefBookTitle>Smoothing Techniques</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Härdle W. Smoothing Techniques. With Implementations in S. New York: Springer; 1991.</RefTotal>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Härdle W</RefAuthor>
        <RefAuthor>Klinke S</RefAuthor>
        <RefAuthor>Müller M</RefAuthor>
        <RefTitle/>
        <RefYear>1999</RefYear>
        <RefBookTitle>XploRe - Academic Edition</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Härdle W, Klinke S, Müller M. XploRe - Academic Edition. The Interactive Statistical Computing Environment (CD-ROM with Handbook). Berlin: Springer-Verlag; 1999.</RefTotal>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Härdle W</RefAuthor>
        <RefAuthor>Rönz B</RefAuthor>
        <RefAuthor>eds</RefAuthor>
        <RefTitle/>
        <RefYear>2002</RefYear>
        <RefBookTitle>COMPSTAT 2002</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Härdle W, Rönz B, eds. COMPSTAT 2002. Proceedings in Computational Statistics. Heidelberg: Physica-Verlag; 2002.</RefTotal>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Härdle W</RefAuthor>
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle/>
        <RefYear>1996</RefYear>
        <RefBookTitle>Statistical Theory and Computational Aspects of Smoothing</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Härdle W, Schimek MG, eds. Statistical Theory and Computational Aspects of Smoothing. Heidelberg: Physica-Verlag; 1996.</RefTotal>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>International Biometric Society</RefAuthor>
        <RefTitle/>
        <RefYear>2002</RefYear>
        <RefBookTitle>Proceedings of the XXIst International Biometric Conference, Freiburg, Germany</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>International Biometric Society. Proceedings of the XXIst International Biometric Conference, Freiburg, Germany; 2002.</RefTotal>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Kimeldorf G</RefAuthor>
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle>Spline functions and stochastic processes</RefTitle>
        <RefYear>1970</RefYear>
        <RefJournal>Sankhya</RefJournal>
        <RefPage>173-80</RefPage>
        <RefTotal>Kimeldorf G, Wahba G. Spline functions and stochastic processes. Sankhya. 1970;A 132:173-80.</RefTotal>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Kimeldorf G</RefAuthor>
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle>A correspondence between Bayesian estimation of stochastic processes and smoothing by splines</RefTitle>
        <RefYear>1970</RefYear>
        <RefJournal>Ann Math Statist</RefJournal>
        <RefPage>495-502</RefPage>
        <RefTotal>Kimeldorf G, Wahba G. A correspondence between Bayesian estimation of stochastic processes and smoothing by splines. Ann Math Statist. 1970; 41:495-502.</RefTotal>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Kohn R</RefAuthor>
        <RefAuthor>Ansley CF</RefAuthor>
        <RefTitle>A new algorithm for spline smoothing based on smoothing a stochastic process</RefTitle>
        <RefYear>1987</RefYear>
        <RefJournal>SIAM Journal of Scientific Computing</RefJournal>
        <RefPage>33-48</RefPage>
        <RefTotal>Kohn R, Ansley CF. A new algorithm for spline smoothing based on smoothing a stochastic process. SIAM Journal of Scientific Computing. 1987;8:33-48.</RefTotal>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>Kohn R</RefAuthor>
        <RefAuthor>Smith M</RefAuthor>
        <RefAuthor>Chan D</RefAuthor>
        <RefTitle>Nonparametric regression using linear combinations of basis functions</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Statistics and Computing</RefJournal>
        <RefPage>313-22</RefPage>
        <RefTotal>Kohn R, Smith M, Chan D. Nonparametric regression using linear combinations of basis functions. Statistics and Computing. 2001;11:313-22.</RefTotal>
      </Reference>
      <Reference refNo="65">
        <RefAuthor>van der Linde A</RefAuthor>
        <RefTitle>Smoothing errors</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Statistics</RefJournal>
        <RefPage>91-114</RefPage>
        <RefTotal>van der Linde A. Smoothing errors. Statistics. 1998;31:91-114.</RefTotal>
      </Reference>
      <Reference refNo="63">
        <RefAuthor>van der Linde A</RefAuthor>
        <RefAuthor>Osius G</RefAuthor>
        <RefTitle>Estimation of nonparametric risk functions in matched case-control studies</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Statistics in Medicine</RefJournal>
        <RefPage>1639-62</RefPage>
        <RefTotal>van der Linde A, Osius G. Estimation of nonparametric risk functions in matched case-control studies. Statistics in Medicine. 2001;20:1639-62.</RefTotal>
      </Reference>
      <Reference refNo="64">
        <RefAuthor>van der Linde A</RefAuthor>
        <RefAuthor>Witzko KH</RefAuthor>
        <RefAuthor>Jöckel KH</RefAuthor>
        <RefTitle>Spatio-temporal analysis of mortality using splines</RefTitle>
        <RefYear>1995</RefYear>
        <RefJournal>Biometrics</RefJournal>
        <RefPage>1352-60</RefPage>
        <RefTotal>van der Linde A, Witzko KH, Jöckel KH. Spatio-temporal analysis of mortality using splines. Biometrics. 1995;51:1352-60.</RefTotal>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>Mammen E</RefAuthor>
        <RefAuthor>Linton O</RefAuthor>
        <RefAuthor>Nielsen J</RefAuthor>
        <RefTitle>The existence and asymptotic properties of a backfitting projection algorithm under weak conditions</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Ann Statist</RefJournal>
        <RefPage>1443-90</RefPage>
        <RefTotal>Mammen E, Linton O, Nielsen J. The existence and asymptotic properties of a backfitting projection algorithm under weak conditions. Ann Statist. 1999;27:1443-90.</RefTotal>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>Marron JS</RefAuthor>
        <RefTitle>A personal view of smoothing and statistics</RefTitle>
        <RefYear>1996</RefYear>
        <RefBookTitle>Statistical Theory and Computational Aspects of Smoothing</RefBookTitle>
        <RefPage>1-9</RefPage>
        <RefISBN/>
        <RefTotal>Marron JS. A personal view of smoothing and statistics. In: Härdle W, Schimek MG, eds. Statistical Theory and Computational Aspects of Smoothing. Heidelberg: Physica-Verlag; 1996. p. 1-9.</RefTotal>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>Marx BD</RefAuthor>
        <RefAuthor>Eilers PHC</RefAuthor>
        <RefTitle>Direct generalized additive modeling with penalized likelihood</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Computational Statistics and Data Analysis</RefJournal>
        <RefPage>193-209</RefPage>
        <RefTotal>Marx BD, Eilers PHC. Direct generalized additive modeling with penalized likelihood. Computational Statistics and Data Analysis. 1998;28:193-209.</RefTotal>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Nadaraya EA</RefAuthor>
        <RefTitle>On estimating regression</RefTitle>
        <RefYear>1964</RefYear>
        <RefJournal>Theory of Probability and its Applications</RefJournal>
        <RefPage>186-96</RefPage>
        <RefTotal>Nadaraya EA. On estimating regression. Theory of Probability and its Applications. 1964;10:186-96.</RefTotal>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>O'Sullivan F</RefAuthor>
        <RefTitle>Fast computation of fully automated log-density and log-hazard estimators</RefTitle>
        <RefYear>1987</RefYear>
        <RefJournal>SIAM J Sci Statist Comput</RefJournal>
        <RefPage>363-79</RefPage>
        <RefTotal>O'Sullivan F. Fast computation of fully automated log-density and log-hazard estimators. SIAM J Sci Statist Comput. 1987;9:363-79.</RefTotal>
      </Reference>
      <Reference refNo="38">
        <RefAuthor>Parzen E</RefAuthor>
        <RefTitle>On estimation of probability density functions and mode</RefTitle>
        <RefYear>1962</RefYear>
        <RefJournal>Ann Math Statist</RefJournal>
        <RefPage>1065-76</RefPage>
        <RefTotal>Parzen E. On estimation of probability density functions and mode. Ann Math Statist. 1962;33:1065-76.</RefTotal>
      </Reference>
      <Reference refNo="39">
        <RefAuthor>Priestley MB</RefAuthor>
        <RefAuthor>Chao MT</RefAuthor>
        <RefTitle>Nonparametric curve fitting</RefTitle>
        <RefYear>1972</RefYear>
        <RefJournal>J Roy Statist Soc</RefJournal>
        <RefPage>385-92</RefPage>
        <RefTotal>Priestley MB, Chao MT. Nonparametric curve fitting. J Roy Statist Soc. 1972;B 34:385-92.</RefTotal>
      </Reference>
      <Reference refNo="41">
        <RefAuthor>Ramsay JO</RefAuthor>
        <RefAuthor>Silverman BW</RefAuthor>
        <RefTitle/>
        <RefYear>1997</RefYear>
        <RefBookTitle>Functional Data Analysis</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Ramsay JO, Silverman BW. Functional Data Analysis. New York: Springer; 1997.</RefTotal>
      </Reference>
      <Reference refNo="40">
        <RefAuthor>Ramsay JO</RefAuthor>
        <RefAuthor>Silverman BW</RefAuthor>
        <RefTitle/>
        <RefYear>2002</RefYear>
        <RefBookTitle>Applied Functional Data Analysis</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Ramsay JO, Silverman BW. Applied Functional Data Analysis. Methods and Case Studies. New York: Springer; 2002.</RefTotal>
      </Reference>
      <Reference refNo="42">
        <RefAuthor>Rosenblatt M</RefAuthor>
        <RefTitle>Remarks on some nonparametric estimates of a density function</RefTitle>
        <RefYear>1956</RefYear>
        <RefJournal>Ann Math Statist</RefJournal>
        <RefPage>832-37</RefPage>
        <RefTotal>Rosenblatt M. Remarks on some nonparametric estimates of a density function. Ann Math Statist. 1956;27:832-37.</RefTotal>
      </Reference>
      <Reference refNo="47">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle>Non-parametric spline regression by Bathspline: Foundations and application</RefTitle>
        <RefYear>1990</RefYear>
        <RefBookTitle>SOFTSTAT '89</RefBookTitle>
        <RefPage>224-34</RefPage>
        <RefISBN/>
        <RefTotal>Schimek MG. Non-parametric spline regression by Bathspline: Foundations and application. In: Faulbaum F, Haux R, Jöckel KH, eds. SOFTSTAT '89. Fortschritte der Statistik-Software 2. Stuttgart: G. Fischer; 1990. p. 224-34.</RefTotal>
      </Reference>
      <Reference refNo="46">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle>Non-parametric regression techniques for biometric problems: Concepts and software</RefTitle>
        <RefYear>1991</RefYear>
        <RefBookTitle>Medical Informatics Europe 1991</RefBookTitle>
        <RefPage>562-6</RefPage>
        <RefISBN/>
        <RefTotal>Schimek MG. Non-parametric regression techniques for biometric problems: Concepts and software. In: Adlassnig KP, Grabner G, Bengtsson S, Hansen R, eds. Medical Informatics Europe 1991. Berlin: Springer-Verlag; 1991. p. 562-6.</RefTotal>
      </Reference>
      <Reference refNo="49">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle/>
        <RefYear>2000</RefYear>
        <RefBookTitle>Smoothing and Regression</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Schimek MG. Smoothing and Regression. Approaches, Computation and Application. New York: Wiley; 2000.</RefTotal>
      </Reference>
      <Reference refNo="45">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle>Estimation and inference in partially linear models with smoothing splines</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>J Statist Plan Infer</RefJournal>
        <RefPage>525-40</RefPage>
        <RefTotal>Schimek MG. Estimation and inference in partially linear models with smoothing splines. J Statist Plan Infer. 2000;91:525-40.</RefTotal>
      </Reference>
      <Reference refNo="43">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefAuthor>ed</RefAuthor>
        <RefTitle>Semiparametric function estimation and testing</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Statistics and Computing</RefJournal>
        <RefPage>291-335</RefPage>
        <RefTotal>Schimek MG, ed. Semiparametric function estimation and testing. Statistics and Computing. 2001;11:291-335.</RefTotal>
      </Reference>
      <Reference refNo="48">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefTitle>Penalized logistic regression in gene expression analysis</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Methods Inform Med</RefJournal>
        <RefPage>439-44</RefPage>
        <RefTotal>Schimek MG. Penalized logistic regression in gene expression analysis. Methods Inform Med. 2004;43:439-44.</RefTotal>
      </Reference>
      <Reference refNo="44">
        <RefAuthor>Schimek MG</RefAuthor>
        <RefAuthor>Kubik W</RefAuthor>
        <RefTitle>Möglichkeiten und Grenzen des Werkzeuges XploRe aus der Sicht des Biometrikers</RefTitle>
        <RefYear>1992</RefYear>
        <RefBookTitle>Methoden und Werkzeuge für die exploratorische Datenanalyse in den Biowissenschaften</RefBookTitle>
        <RefPage>129-39</RefPage>
        <RefISBN/>
        <RefTotal>Schimek MG, Kubik W. Möglichkeiten und Grenzen des Werkzeuges XploRe aus der Sicht des Biometrikers. In:  Enke H, Gölles J, Haux R, Wernecke KD, eds. Methoden und Werkzeuge für die exploratorische Datenanalyse in den Biowissenschaften. Stuttgart: G. Fischer; 1992. p. 129-39.</RefTotal>
      </Reference>
      <Reference refNo="50">
        <RefAuthor>Schwartz J</RefAuthor>
        <RefTitle>The use of generalized additive models in epidemiology</RefTitle>
        <RefYear>1994</RefYear>
        <RefBookTitle>XVIIth International Biometric Conference, Hamilton, Canada. Proceedings.</RefBookTitle>
        <RefPage>55-80</RefPage>
        <RefISBN/>
        <RefTotal>Schwartz J. The use of generalized additive models in epidemiology. In:  XVIIth International Biometric Conference, Hamilton, Canada. Proceedings. Vol.1. 1994. p. 55-80.</RefTotal>
      </Reference>
      <Reference refNo="51">
        <RefAuthor>Scott DW</RefAuthor>
        <RefTitle>Multivariate density estimation and visualization</RefTitle>
        <RefYear>2004</RefYear>
        <RefBookTitle>Handbook of Computational Statistics</RefBookTitle>
        <RefPage>517-38</RefPage>
        <RefISBN/>
        <RefTotal>Scott DW. Multivariate density estimation and visualization. In: Gentle JE, Härdle W, Mori Y, eds. Handbook of Computational Statistics. New York: Springer; 2004. p. 517-38.</RefTotal>
      </Reference>
      <Reference refNo="52">
        <RefAuthor>Seifert B</RefAuthor>
        <RefAuthor>Brockmann M</RefAuthor>
        <RefAuthor>Engel J</RefAuthor>
        <RefAuthor>Gasser T</RefAuthor>
        <RefTitle>Fast algorithms for nonparametric curve estimation</RefTitle>
        <RefYear>1994</RefYear>
        <RefJournal>J Comp Graph Statist</RefJournal>
        <RefPage>192-213</RefPage>
        <RefTotal>Seifert B, Brockmann M, Engel J, Gasser T. Fast algorithms for nonparametric curve estimation. J Comp Graph Statist. 1994;4:192-213.</RefTotal>
      </Reference>
      <Reference refNo="53">
        <RefAuthor>Seifert B</RefAuthor>
        <RefAuthor>Gasser T</RefAuthor>
        <RefTitle>Variance properties of local polynomials and ensuing modifications</RefTitle>
        <RefYear>1996</RefYear>
        <RefBookTitle>Statistical Theory and Computational Aspects of Smoothing</RefBookTitle>
        <RefPage>50-79</RefPage>
        <RefISBN/>
        <RefTotal>Seifert B, Gasser T. Variance properties of local polynomials and ensuing modifications. In: Härdle W, Schimek MG, eds. Statistical Theory and Computational Aspects of Smoothing. Heidelberg: Physica-Verlag; 1996. p. 50-79.</RefTotal>
      </Reference>
      <Reference refNo="56">
        <RefAuthor>Silverman BW</RefAuthor>
        <RefTitle>Spline smoothing: The equivalent variable kernel method</RefTitle>
        <RefYear>1984</RefYear>
        <RefJournal>Ann Statist</RefJournal>
        <RefPage>896-916</RefPage>
        <RefTotal>Silverman BW. Spline smoothing: The equivalent variable kernel method. Ann Statist. 1984;12:896-916.</RefTotal>
      </Reference>
      <Reference refNo="55">
        <RefAuthor>Silverman BW</RefAuthor>
        <RefTitle>Some aspects of the spline smoothing approach to non-parametric regression curve fitting (with discussion)</RefTitle>
        <RefYear>1985</RefYear>
        <RefJournal>J R Statist Soc</RefJournal>
        <RefPage>1-52</RefPage>
        <RefTotal>Silverman BW. Some aspects of the spline smoothing approach to non-parametric regression curve fitting (with discussion). J R Statist Soc. 1985;B 47:1-52.</RefTotal>
      </Reference>
      <Reference refNo="54">
        <RefAuthor>Silverman BW</RefAuthor>
        <RefTitle/>
        <RefYear>1986</RefYear>
        <RefBookTitle>Density Estimation for Statistics and Data Analysis</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Silverman BW. Density Estimation for Statistics and Data Analysis. London: Chapman &amp; Hall; 1986.</RefTotal>
      </Reference>
      <Reference refNo="57">
        <RefAuthor>Simonoff JS</RefAuthor>
        <RefTitle/>
        <RefYear>1996</RefYear>
        <RefBookTitle>Smoothing Methods in Statistics</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Simonoff JS. Smoothing Methods in Statistics. New York: Springer; 1996.</RefTotal>
      </Reference>
      <Reference refNo="58">
        <RefAuthor>Smith RL</RefAuthor>
        <RefAuthor>Davis JM</RefAuthor>
        <RefAuthor>Speckman P</RefAuthor>
        <RefTitle>Airborne particles and mortality</RefTitle>
        <RefYear>1998</RefYear>
        <RefBookTitle>Case Studies in Environmental Statistics</RefBookTitle>
        <RefPage>91-120</RefPage>
        <RefISBN/>
        <RefTotal>Smith RL, Davis JM, Speckman P. Airborne particles and mortality. In: Nychka D, Piegorsch WW, Cox LH, eds. Case Studies in Environmental Statistics. New York: Springer; 1998. p. 91-120.</RefTotal>
      </Reference>
      <Reference refNo="59">
        <RefAuthor>Speckman P</RefAuthor>
        <RefTitle>Kernel smoothing in partial linear models</RefTitle>
        <RefYear>1988</RefYear>
        <RefJournal>J Royal Statist Soc</RefJournal>
        <RefPage>413-36</RefPage>
        <RefTotal>Speckman P. Kernel smoothing in partial linear models. J Royal Statist Soc. 1988;B 50:413-36.</RefTotal>
      </Reference>
      <Reference refNo="60">
        <RefAuthor>Spencer J</RefAuthor>
        <RefTitle>On the graduation of rates of sickness and mortality</RefTitle>
        <RefYear>1904</RefYear>
        <RefJournal>J Inst Act</RefJournal>
        <RefPage>334-47</RefPage>
        <RefTotal>Spencer J. On the graduation of rates of sickness and mortality. J Inst Act. 1904;38:334-47.</RefTotal>
      </Reference>
      <Reference refNo="61">
        <RefAuthor>Stone CJ</RefAuthor>
        <RefTitle>Consistent nonparametric regression (with discussion)</RefTitle>
        <RefYear>1977</RefYear>
        <RefJournal>Ann Statist</RefJournal>
        <RefPage>595-645</RefPage>
        <RefTotal>Stone CJ. Consistent nonparametric regression (with discussion). Ann Statist. 1977;5:595-645.</RefTotal>
      </Reference>
      <Reference refNo="62">
        <RefAuthor>Thompson JR</RefAuthor>
        <RefAuthor>Tapia RA</RefAuthor>
        <RefTitle/>
        <RefYear>1990</RefYear>
        <RefBookTitle>Nonparametric Function Estimation, Modeling, and Simulation</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Thompson JR, Tapia RA. Nonparametric Function Estimation, Modeling, and Simulation. Philadelphia: SIAM; 1990.</RefTotal>
      </Reference>
      <Reference refNo="66">
        <RefAuthor>Venables WN</RefAuthor>
        <RefAuthor>Ripley BD</RefAuthor>
        <RefTitle/>
        <RefYear>2002</RefYear>
        <RefBookTitle>Modern Applied Statistics with S-Plus</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Venables WN, Ripley BD. Modern Applied Statistics with S-Plus. 4. ed. New York: Springer; 2002.</RefTotal>
      </Reference>
      <Reference refNo="71">
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle>Improper priors, spline smoothing and the problem of guarding against model errors in regression</RefTitle>
        <RefYear>1978</RefYear>
        <RefJournal>J Roy Statist Soc</RefJournal>
        <RefPage>364-72</RefPage>
        <RefTotal>Wahba G. Improper priors, spline smoothing and the problem of guarding against model errors in regression. J Roy Statist Soc. 1978; B 40:364-72.</RefTotal>
      </Reference>
      <Reference refNo="70">
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle>Convergence rates of thin plate smoothing splines when the data are noisy</RefTitle>
        <RefYear>1979</RefYear>
        <RefBookTitle>Smoothing Techniques for Curve Estimation</RefBookTitle>
        <RefPage>233-45</RefPage>
        <RefISBN/>
        <RefTotal>Wahba G. Convergence rates of thin plate smoothing splines when the data are noisy. In: Gasser T, Rosenblatt M, eds. Smoothing Techniques for Curve Estimation. Berlin: Springer-Verlag; 1979. p. 233-45.</RefTotal>
      </Reference>
      <Reference refNo="69">
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle>Bayesian 'confidence intervals' for the cross-validated smoothing spline</RefTitle>
        <RefYear>1983</RefYear>
        <RefJournal>J Roy Statist Soc</RefJournal>
        <RefPage>133-50</RefPage>
        <RefTotal>Wahba G. Bayesian 'confidence intervals' for the cross-validated smoothing spline. J Roy Statist Soc. 1983; B 45:133-50.</RefTotal>
      </Reference>
      <Reference refNo="68">
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle>A comparison of GCV and GML for choosing the smoothing parameter in the generalized spline smoothing problem</RefTitle>
        <RefYear>1985</RefYear>
        <RefJournal>Ann Statist</RefJournal>
        <RefPage>1378-1402</RefPage>
        <RefTotal>Wahba G. A comparison of GCV and GML for choosing the smoothing parameter in the generalized spline smoothing problem. Ann Statist. 1985;13:1378-1402.</RefTotal>
      </Reference>
      <Reference refNo="67">
        <RefAuthor>Wahba G</RefAuthor>
        <RefAuthor>Wold S</RefAuthor>
        <RefTitle>A completely automatic French curve</RefTitle>
        <RefYear>1975</RefYear>
        <RefJournal>Commun Statist</RefJournal>
        <RefPage>1-17</RefPage>
        <RefTotal>Wahba G, Wold S. A completely automatic French curve. Commun Statist. 1975;4:1-17.</RefTotal>
      </Reference>
      <Reference refNo="73">
        <RefAuthor>Watson GS</RefAuthor>
        <RefTitle>Smooth regression analysis</RefTitle>
        <RefYear>1964</RefYear>
        <RefJournal>Sankhya</RefJournal>
        <RefPage>359-72</RefPage>
        <RefTotal>Watson GS. Smooth regression analysis. Sankhya. 1964;A 26:359-72.</RefTotal>
      </Reference>
      <Reference refNo="74">
        <RefAuthor>Whittaker E</RefAuthor>
        <RefTitle>On a new method of graduation</RefTitle>
        <RefYear>1923</RefYear>
        <RefJournal>Proc Edinburgh Math Soc</RefJournal>
        <RefPage>63-75</RefPage>
        <RefTotal>Whittaker E. On a new method of graduation. Proc Edinburgh Math Soc. 1923;41:63-75.</RefTotal>
      </Reference>
      <Reference refNo="76">
        <RefAuthor>Yee TW</RefAuthor>
        <RefAuthor>Mitchell ND</RefAuthor>
        <RefTitle>Generalized additive models in plant ecology</RefTitle>
        <RefYear>1991</RefYear>
        <RefJournal>J Veg Sci</RefJournal>
        <RefPage>587-602</RefPage>
        <RefTotal>Yee TW, Mitchell ND. Generalized additive models in plant ecology. J Veg Sci. 1991;2:587-602.</RefTotal>
      </Reference>
      <Reference refNo="75">
        <RefAuthor>Yee TW</RefAuthor>
        <RefAuthor>Mackenzie M</RefAuthor>
        <RefTitle>Vector generalized additive models in plant ecology</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Ecological Modelling</RefJournal>
        <RefPage>141-56</RefPage>
        <RefTotal>Yee TW, Mackenzie M. Vector generalized additive models in plant ecology. Ecological Modelling. 2002;157:141-56.</RefTotal>
      </Reference>
      <Reference refNo="72">
        <RefAuthor>Wahba G</RefAuthor>
        <RefTitle/>
        <RefYear>1990</RefYear>
        <RefBookTitle>Spline models for observational data</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Wahba G. Spline models for observational data. Philadelphia, Pa.: Society for Industrial and Applied Mathematics; 1990. CBMS-NSF regional conference series in applied mathematics; 59.</RefTotal>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Hastie T</RefAuthor>
        <RefAuthor>Tibshirani R</RefAuthor>
        <RefAuthor>Friedman JH</RefAuthor>
        <RefTitle/>
        <RefYear>2001</RefYear>
        <RefBookTitle>The elements of statistical learning : data mining, inference, and prediction</RefBookTitle>
        <RefPage/>
        <RefISBN/>
        <RefTotal>Hastie T, Tibshirani R, Friedman JH. The elements of statistical learning : data mining, inference, and prediction. New York: Springer; 2001.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="861" height="652" format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption>
<Pgraph>
<Mark1>Abbildung 1: a: Uniformer Kern </Mark1>
<Mark1>
<Mark2>K</Mark2>
</Mark1>
<Mark1>
<Subscript>1</Subscript>
</Mark1>
<Mark1>; b: Epanechnikov Kern </Mark1>
<Mark1>
<Mark2>K</Mark2>
</Mark1>
<Mark1>
<Subscript>2</Subscript>
</Mark1>
<Mark1> ; c: Kern 4. Ordnung </Mark1>
<Mark1>
<Mark2>K</Mark2>
</Mark1>
<Mark1>
<Subscript>3</Subscript>
</Mark1>
<Mark1>; d: Normaler Kern  </Mark1>
<Mark1>
<Mark2>K</Mark2>
</Mark1>
<Mark1>
<Subscript>4</Subscript>
</Mark1>
</Pgraph>
</Caption>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </Figures>
      <InlineFigures>
        <Figure width="183" height="88" format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <AltText>Formel 1</AltText>
        </Figure>
        <Figure width="100" height="31" format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <AltText>Formel 2</AltText>
        </Figure>
        <Figure width="189" height="45" format="png">
          <MediaNo>4</MediaNo>
          <MediaID>4</MediaID>
          <AltText>Formel 4</AltText>
        </Figure>
        <Figure width="274" height="146" format="png">
          <MediaNo>3</MediaNo>
          <MediaID>3</MediaID>
          <AltText>Formel 3</AltText>
        </Figure>
        <Figure width="140" height="24" format="png">
          <MediaNo>5</MediaNo>
          <MediaID>5</MediaID>
          <AltText>Formel 5</AltText>
        </Figure>
        <Figure width="112" height="25" format="png">
          <MediaNo>6</MediaNo>
          <MediaID>6</MediaID>
          <AltText>Formel 6</AltText>
        </Figure>
        <Figure width="260" height="45" format="png">
          <MediaNo>7</MediaNo>
          <MediaID>7</MediaID>
          <AltText>Formel 7</AltText>
        </Figure>
        <NoOfPictures>7</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>
