Excess Risk Estimation for Cancer Registry Data

Johann Mattutat, M.S.
Universitätsklinikum Schleswig-Holstein

Institut für Krebsepidemiologie

Zeit:     Mittwoch, 29.06.22, 12.00 Uhr s.t.
Ort:      Seminarraum Informatik 4/Minsky (Geb. 64, EG), Universität zu Lübeck, Ratzeburger Allee 160, 23562 Lübeck
Info:     (0451) 500-50601

Data regarding survival after a cancer diagnosis is a quality indicator for treatment and of public interest - especially for patients and their relatives. However, due to advanced age of the patients, competing risks cause a challenge in reporting attributable mortality. Current reports from cancer registries correct for background mortality by reporting relative survival (the ratio of observed vs. expected survival) or net survival (the theoretical survival rate when expected mortality is subtracted) for fixed periods (e.g. 5 years) with expected survival estimated from population life tables. However, both indicators are relatively scaled and the reporting of conditional survival is not very common.

Excess hazard regression is a recently developed method to address the problem of attributable mortality differently. By converting the resulting hazards back to survival information (using numerical integration), new indicators can be defined. We implemented a set of those and assessed their applicability in the setting of the Schleswig-Holstein cancer registry with peculiar attention to cohort size and missing data. In this talk, statistical aspects of the implementation will be presented and challenges in the work with cancer registry data will be discussed.

Assessing the calibration of subdistribution hazard models in discrete time

Prof. Dr. Matthias Schmid
Universität Bonn

Zeit:     Mittwoch, 08.06.22, 12.00 Uhr s.t.
Ort:      Seminarraum Informatik 4/Minsky, Universität zu Lübeck, Ratzeburger Allee 160, 23562 Lübeck
Info:     (0451) 500-50601

The generalization performance of a risk prediction model can be evaluated by its calibration, which measures the agreement between predicted and observed outcomes on external validation data. In this talk we propose methods for assessing the calibration of discrete time-to-event models in the presence of competing risks. Specifically, we consider the class of discrete subdistribution hazard models, which directly relate the cumulative incidence function of one event of interest to a set of predictor variables. The methods are applied to a prediction model for the development of nosocomial pneumonia. Simulation studies show that the proposed methodology is a strong tool for calibration assessment even in scenarios with a high censoring rate and/or a large number of discrete time points.

Nonparametric Analysis of Preclinical Studies: Challenges, Solutions and their Limitations

Prof. Dr. Frank Konietschke
Charité Universitätsmedizin Berlin

Zeit:     Freitag, 10.01.20, 11.00 Uhr s.t.
Ort:      AMS4, Universität zu Lübeck, Ratzeburger Allee 160, 23562 Lübeck

Preclinical studies are a fundamental part of medical research and especially of translational medicine. The planning and analysis of such trials have their own characteristics and challenges: In comparison to clinical trials, sample sizes are usually very small (mostly ethical reasons), data is clustered (animals live in same cage), high-dimensional and often complex. In this talk, we will discuss these statistical challenges in detail and some solutions using purely nonparametric ranking as well as mean-based methods. Real data sets from ongoing studies at the Charité will be used for illustration.

Multiple testing procedures for big data analysis

Prof. Dr. Arnold Janssen
Heinrich-Heine-University, Düsseldorf

Zeit:     Freitag, 15.11.19, 11.00 Uhr s.t.
Ort:      AMS4, Universität zu Lübeck, Ratzeburger Allee 160, 23562 Lübeck

Big data analysis like genome wide association studies require new statistical inference tools. It is a big issue to judge a huge amount of tests for one single data set simultaneously. A well known approach is based on the false discovery rate control (FDR) beginning with Benjamini and Hochberg (1995). Multiple tests select a portion of null hypotheses which are likely to be rejected. The FDR principle controls the ratio of the number of false rejections divided by the amount of all rejections in the mean.

The talk discusses new multiple tests which lead to level alpha control of the FDR. Special attention is devoted to sparsity models when only a few false null are hidden within a big data set. Throughout, exact finte sample control results are presented as well the asymptotics about the stability of the procedures.

Multiple Imputation

Prof. Dr. Christian Heumann
Department für Statistik der LMU München

Zeit:     Montag, 01.07.19, 16.00 Uhr s.t.
Ort:      TS1, Universität zu Lübeck, Ratzeburger Allee 160, 23562 Lübeck

Multiple imputation is nowadays the standard tool for treating the problem of missing data in all kinds of data analysis and statistics. In the first part, MICE (Multiple Imputation by Chained Equations) as a popular implementation of a method which uses the so-called fully conditional univariate regression models (FCS) for creating multiple imputations is introduced. Various variants as well as advantages and disadvantages of the method are presented and discussed.
In a second part, further interesting topics are considered such as model selection, inference, high-dimensional data and extensions of the FCS approach using machine learning methods.

Meta-analysis of a diagnostic accuracy studies with multiple thresholds –comparison of different approaches

Prof. Dr. Antonia Zapf
Institut für Medizinische Biometrie und Epidemiologie, Zentrum für Experimentelle Medizin, UKE Hamburg

Ort des Vortrages: AM S4
Uhrzeit: 11 Uhr c.t.
Datum: 18. Januar 2019

Methods for standard meta-analysis of diagnostic test accuracy studies are well established and understood. For the more complex case in which studies report test accuracy across multiple thresholds, several approaches have recently been proposed.  The underlying assumptions and ideas of the individual approaches are quite different. In this talk I will present the different approaches and apply them to data from a recent systematic review in the area of nephrology and compare the results. In the case study data set, the accuracy of neutrophil gelatinase-associated lipocalin for the diagnosis of acute kidney injury was assessed, with sensitivity and specificity reported for three different thresholds in each primary study. The main finding is that the results of the approaches are often quite different (for example differences in AUC up to 0.13). Furthermore, we did not find a systematic pattern such that,  for example, one approach always led to the highest or lowest summary estimates. This finding implies that the published results of such meta-analyses should be interpreted very carefully.

Sample size adaptations in clinical trials with recurrent event endpoints

Prof. Dr. Tim Friede
Institut für Medizinische Statistik, Universitätsmedizin Göttingen

Ort des Vortrages: AM S4
Uhrzeit: 11 Uhr c.t.
Datum: 14. Dezember 2018

In studies with recurrent event endpoints, misspecified assumptions of event rates or dispersion can lead to underpowered trials or overexposure of patients. Specification of overdispersion is often a particular problem as it is usually not reported in clinical trial publications. Changing event rates over the years have been described for some diseases, adding to the uncertainty in planning. To mitigate the risks of inadequate sample sizes, internal pilot study designs have been proposed with a preference for blinded sample size reestimation procedures, as they generally do not affect the type I error rate and maintain trial integrity. Blinded sample size reestimation procedures are available for trials with recurrent events as endpoints. However, the variance in the reestimated sample size can be considerable in particular with early sample size reviews (Friede and Miller, 2012). Motivated by a randomized controlled trial in paediatric multiple sclerosis, we apply the concept of blinded continuous monitoring of information, which is known to reduce the variance in the resulting sample size. Assuming negative binomial distributions for the counts of recurrent relapses, we derive information criteria and propose blinded continuous monitoring procedures (Friede et al, 2018). The procedures are extended to settings with time varying event rates. As there is some promise in combining continuous blinded monitoring of the information with group sequential plans, we will discuss also some aspects of group sequential plans with recurrent event endpoints (Mütze et al, 2018a,b). This is joint work with Heinz Schmidli, Tobias Mütze and others.

Meta-Analysis and Network-Meta-Analysisof Molecular High-Throughput Expression Data

Prof. Dr. Klaus Jung
Working Group Genomics and Bioinformatics of Infectious DiseasesInstitute for Animal Breeding and GeneticsUniversity of Veterinary Medicine Hannover

Ort des Vortrages: AM S4
Uhrzeit: 11.30 Uhr c.t.
Datum: 23. November 2018

Due to the high-dimensional character of molecular high-throughput expression data (e.g. from transcriptomics or proteomics) the reproducibility and robustness of analysis results often is weak. On the other hand, many of such data are available in public repositories (Jung, 2018). Thus meta-analyses can be performed to increase the level of scientific evidence. In our work, we evaluate and compare different methods for meta-analysis of high-throughput expression data. Specifically, we study whether data merging or result merging provides a better basis for the analysis. Exemplarily, we study this question with respect to gene-set analyse which are an essential part of microarray and RNA-seq analysis. Furthermore, we evaluate the use of network meta-analysis to make indirect inferences from high-throughput transcriptome expression data. With network meta-analysis group comparisons can be made that were not part of the original studies. The different studies are linked via their control groups within the study network. The different methods for meta-analysis and network meta-analysis, specifically the question of data and result merging, are compared via simulation studies. In addition, we apply our methods to real-world data, e.g. gene expression profiles from West Nile virus infected samples (Kosch et al., 2018) and ZIKA-virus infected samples (unpublished work).

Predicting assay readoutsusing morphological profiles

Dr. rer. nat. Tim Becker
Broad Institute of MIT and Harvard, Boston, MA, USA

Ort des Vortrages: AM S2
Uhrzeit: 14.30 Uhr c.t.
Datum: 9. Juli 2018

The Broad’s Imaging Platform is best known for the open-source CellProfiler project. CellProfiler is used by scientists around the world quantifying biological processes in images. Cited in 4,700+ scientific papers, it has led to potential therapeutics related to the Ebola virus, tuberculosis, AMKL, leukemic stem cells, and CCM. We are now working on a new challenge: using cell images to identify signatures of genes, drugs and other perturbations, with the ultimate goal of finding the cause and potential cures of diseases. High-throughput microscopy enables imaging several thousand cells per perturbation, and identifying multiple organelles using fluorescent markers yields hundreds of image features per cell. We use this rich information to construct perturbation signatures or “profiles”.
Based on these signatures we designed a computational model that predicts the readout of diverse assays by analyzing the cellular morphology. The model has potential to accelerate the identification of hits for hundreds of specific biological processes by mining an existing and freely accessible, large library of 30.000 compounds profiled by Cell Painting. Currently, our model predicts 34% of the assays with more than 70% accuracy.


A novel testing approach for random forests suitable for GWASs based on the Gini importance

Dr. Stefano Nembrini
University of Brescia, Brescia (Italy) 

Ort des Vortrages: Seminarraum Informatik 4 (Minsky)
Uhrzeit: 12 Uhr c.t.
Datum: 7. Juni 2017

Random Forests have become a commonly used machine learning algorithm in a wide range of fields, including genetic association studies. One of their charms is the fact that they provide variable importance measures (VIM), which can be used to rank relevant predictors. The most straightforward VIM is the popular Gini importance, which measures the mean reduction in node impurity. Such VIM has been known to have a bias in favor of variables with many possible splitting points, and is usually replaced by the permutation importance, which is considered more reliable. For very large problems, as GWASs, the computation of the permutation importance may however be very burdensome.
To this end, we propose a debiased version of the Gini importance, exploiting randomizations of the original variables. For a Random Forest, the standard impurity importance is computed for every variable, including its permuted counterpart. The debiased importance is then obtained for each variable as the difference between the VIM of the original variable and its corresponding permutation.
Using both simulated and real data, we show that the debiased importance is centered around zero in the null case, i.e. when all predictors are noise. This symmetry suggests a simple testing approach, which can be used to identify relevant features or perform variable selection.

A weighted combined effect measure for the analysis of a composite time-to-first-event endpoint with components of different clinical relevance

Prof. Dr. Geraldine Rauch
Institut für Medizinische Biometrie und Epidemiologie, Universitätsklinikum Hamburg-Eppendorf

Ort des Vortrages: AM S1
Uhrzeit: 14 Uhr c.t.
Datum: 6. Februar 2017

Composite endpoints combine several events within a single variable, which increases the number of expected events and is thereby meant to increase the power. However, the interpretation of results can be difficult as the observed effect for the composite does not necessarily reflect the effects for the components, which may be of different magnitude or even point in adverse directions. Moreover, in clinical applications, the event types are often of different clinical relevance, which also complicates the interpretation of the composite effect. The common effect measure for composite endpoints is the all-cause hazard ratio which gives equal weight to all events irrespective of their type and clinical relevance. Thereby, the all-cause hazard within each group is given by the sum of the cause-specific hazards corresponding to the individual components. A natural extension of the standard all-cause hazard ratio can be defined by a ‘weighted all-cause hazard ratio’ where the individual hazards for each component are multiplied with predefined relevance weighting factors. For the special case of equal weights across the components, the weighted all-cause hazard ratio then corresponds to the standard all-cause hazard ratio. To identify the cause-specific hazard of the individual components, any parametric survival model might be applied. The new weighted effect measure can be tested for deviations from the null hypothesis by means of a permutation test. In this work, we systematically compare the new weighted approach to the standard all-cause hazard ratio by theoretical considerations, Monte-Carlo simulations, and by means of a real clinical trial example.

Deep Learning - A Renaissance of Neural Networks

PD Dr. Amir Madany Mamlouk
Institut für Neuro- und Bioinformatik, Universität zu Lübeck

Ort des Vortrages: AM S1
Uhrzeit:11 Uhr c.t.
Datum: 27. Januar 2017

Together with advances in computing power, esp. massive hardware acceleration for complex matrix operations, many long-held AI challenges could be tackled by modern machine learning approaches, just within the last years: There are already self-driving cars around and just in march 2016 a computer game defeated the the current world champion in GO, just to name two examples. From a neural networks perspective, this is not the first renaissance, and maybe it will not be last. In this talk, I will give a short walk through the history of neural networks, starting with Perceptrons, their extension to Multilayer Perceptrons, and the fundamental concept of Backpropagation Learning. Finally, we will talk about the state-of-the art variant of neural networks, the so called Deep Learning. On given examples, I will illustrate, which applications might benefit from Deep Learning and which are not (yet).

Resource-Aware Model-Based Optimization

Dr. Michel Lang
Fakultät Statistik, TU Dortmund

Ort des Vortrages: AM S1
Uhrzeit: 11 Uhr c.t.
Datum: 16. Dezember 2016

The size of input data processed by machine learning algorithms has skyrocketed in the last years, e.g. in the fields of high-throughput sequencing or log file analysis. Single model fit can easily require hours of CPU time on larger data. This renders classic strategies for hyperparameter tuning (e.g. grid search or evolutionary strategies) infeasible as they tend to evaluate points too lavishly. Hence, the problem at hand can be considered as optimization of an expensive black box function for which the Model-Based Optimization (MBO) has become the state-of-the-art optimization strategy.

Conventional MBO fits a regression model on the set of already evaluated hyperparameter configurations and their corresponding observed performances to guide the search. Due to its inherent sequential nature, an efficient parallel variant – which is desirable for hyperparameter tuning to utilize all available CPUs or nodes – cannot be derived directly, as only the most promising configuration w.r.t. an infill criterion is evaluated in each iteration. This issue has been addressed by generalized infill criteria in order to propose multiple points simultaneously for parallel execution in each sequential step. However, these extensions neglect systematic runtime differences in the configuration space which often leads to underutilized systems. The Resource-Aware Model-Based Optimization framework (RAMBO) addresses this issue by estimating computational resources with additional surrogate models in order to improve the scheduling. First results show that RAMBO leads to an increased model performance in scenarios with heterogeneous runtimes.

Case-only studies of gene-environment interaction

Prof. Dr. Astrid Dempfle
Institut für Medizinische Informatik und Statistik, Christian-Albrechts-Universität zu Kiel

Ort des Vortrages: AM S1
Uhrzeit: 14 Uhr c.t.
Datum: 12. Dezember 2016

Gene-environment interactions (G × E) have attracted considerable research interest in the past owing to their scientific and public health implications, but powerful statistical methods are required to successfully track down G × E, particularly at a genome-wide level. Previously, a case-only (CO) design has been proposed as a means to identify G × E with greater efficiency than traditional case-control or cohort studies. However, as with genotype-phenotype association studies themselves, hidden population stratification (PS) can impact the validity of G × E studies using a CO design. Using comprehensive simulations, we systematically assessed the type I error rate, power and effect size bias of CO studies of G × E in the presence of PS. If the study population is stratified with respect to both G and E, then the type I error rate is seriously inflated and estimates of the underlying G × E interaction are biased. Therefore, we explored three modified Wald test statistics, inspired by the genomic control (GC) approach to GWAS, as a means to allow for PS. The modified statistics were benchmarked against a stratified Wald test assuming known population affiliation, which should provide maximum power under PS. Our results confirm that GC is capable of successfully and efficiently correcting the PS-induced inflation of the type I error rate in CO studies of G × E.

The presented methods are illustrated by application in a large meta-analysis of CO studies on gene-smoking interactions in inflammatory bowel disease.

Multivariate Tests für nicht-metrische Daten beliebiger Dimension

Prof. Dr. Reinhard Meister
Beuth Hochschule für Technik, Berlin

Ort des Vortrages: AM S1
Uhrzeit: 11 Uhr c.t.
Datum: 15. Januar 2016

Globale Tests können eingesetzt werden, um Unterschiede zwischen z.B. Tumorpatienten und einer Vergleichsgruppe bezüglich der Verteilung multivariater Daten nachzuweisen. Wir haben einen für hochdimensionale metrische Daten geeigneten Test, der auf der Reduktion der Fehlerquadratsumme beruht, entwickelt und im R-package GlobalAncova implementiert. Dabei wird die Permutationsverteilung  einer globalen Teststatistik für Effekte im Linearen Modell  zur Inferenz herangezogen.
Es ist naheliegend, diesen Ansatz auf das Verallgemeinerte Lineare Modell zu übertragen, wenn man dabei die Reduktion der Devianz zur Konstruktion einer geeigneten Teststatistik heranzieht.
Der Vortrag gibt einen Überblick über globale Tests für metrische, diskrete, binäre und ordinale Daten und behandelt Vorschläge zu weiteren, noch allgemeineren Konstruktionen.
Anwendungsmöglichkeiten für Ergebnisse von genome-wide scans werden diskutiert. Dabei wird auch der Einsatz multipler Tests bei einer gegebenen oder datenabhängig gewonnenen hierarchischen Familie von Hypothesen erläutert.

A computationally fast variable importance test for random forests for high-dimensional data

Silke Janitza
Institut für Medizinische Informationsverarbeitung, Biometrie und Epidemiologie, Ludwig-Maximilians-Universität München

Ort des Vortrages: AM S1
Uhrzeit: 11 Uhr c.t.
Datum: 4. Dezember 2015

Random forests are a commonly used tool for classification with high-dimensional data as well as for ranking candidate predictors based on the so-called variable importance measures. There are different importance measures for ranking predictor variables. The two most common measures are the Gini importance and the permutation importance. The latter has been found to be more reliable than the Gini importance. It is computed from the change in prediction accuracy when removing any association between the response and a predictor variable, with large changes indicating that the predictor variable is important. A drawback of those variable importance measures is that there is no natural cutoff that can be used to discriminate between important and non-important variables. Several approaches, for example approaches based on hypothesis testing, have been developed for addressing this problem. The existing testing approaches are permutation-based and require the repeated computation of random forests. While for low-dimensional settings those permutation-based approaches might be computationally tractable, for high-dimensional settings typically including thousands of candidate predictors, computing time is enormous. In this talk a new computationally fast heuristic procedure of a variable importance test is presented, that is appropriate for high-dimensional data where many variables do not carry any information. The testing approach is based on a modified version of the permutation variable importance measure, which is inspired by cross-validation procedures.

Extreme Value Analysis meets Biometrics

Dr. Diana Tichy
Abteilung Biostatistik, Deutsches Krebsforschungszentrum Heidelberg

Ort des Vortrages:  AM S1
Uhrzeit:  11 Uhr c.t.
Datum:  20. November 2015

Alongside many other issues, Statistical analysis pipelines for Next Generation Sequencing data deal with the challenge to detect differentially expressed genes with respect to certain treatment settings and the problem of identifying targets of certain microRNAs. A very popular question arising in this context is how many genes one should pick to undergo a subsequent validation process. Beside the adjusted p-values for each single genewise testhypothesis, biologists are often interested in the absolute values of the estimated gene-wise effects of the fitted linear models. As a rule of thumb, one commonly includes those genes, whose fold change (FC) exceeds a certain threshold, such as 1.5 for gene expression analysis [1] or 4 for RNAsequencing data . However, there does not exist any methodical justification for this approach. In this talk we derive a statistically based method which might show promise for filling this gap. Extreme value theory (EVT) is a branch of probability theory which serves the purpose of investigating the extremal behavior of random variables. Its application is well-established in financial mathematics, risk analysis and meteorology [3]. In the framework of gene expression analysis EVT arises as a natural method since we are interested in the upper tail of fold change estimates resulting from the application of a linear model. We suggest choosing the FC threshold in a way such that the distribution of the exceeding values shows the best fit to a generalized Pareto distribution. This is justified by the famous peaks over threshold (POT) method, a fundamental limit theorem, which firstly appeared under that name by Davison and Smith in 1990. Hitherto EVT does not seem to have gained a foothold in biological applications in contrast to a widespread field of existing applications such as the modeling of extreme flood-events, large claims in reinsurance and financial crises. We give a detailed introduction to the univariate EVT and discuss its potential for applications in biometrics.

Rare Variant Collapsing Test with Variable Binning

Dmitriy Drichel
Deutsches Zentrum für Neurodegenerative Erkrankungen, Universität Bonn

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert),Geb. 64
Uhrzeit:  11 Uhr c.t.
Datum:  10. Juli 2015

Methodology of rare variant analysis underwent a rapid development since the application of collapsing tests to predefined bins was proposed. The basic collapsing test is the 1 d.f. χ² test dichotomizing carriers and non-carriers of rare variants. An individual is considered a carrier if at least one minor allele is present in the analysis unit (bin).

Although a multitude of statistical tests exist by now, the majority relies on a twofold parameterization of the dataset: the choice of the threshold minor allele frequency (MAFT) to define “rare” and “common” variants, and the definition of analysis bins (“binning”). The choice of parameters is an educated guess at best and implies a certain Type II error rate due to uncertain signal-no-noise ratio in predefined analysis units.

The Variable-Threshold method (VT) eliminates the choice of a specific MAFT by analyzing the space of all possible thresholds in each bin, finding the optimal MAFT and using permutations for multiple testing correction. The COLL VT method is computationally feasible even for large genome-wide datasets with ~20,000-100,000 bins.

We investigated the possibility of elimination of a priori binning in an analogous fashion. In this scenario, all possible contiguous bins, i.e. bins with all possible combinations of start and end positions are tested for association.  Although the number of combinations is very large (n(n+1)/2 per chromosome with n rare variants), in the case of COLL, the number of bins with distinct sets of carriers is much smaller due to the characteristic “individual-wise”  collapsing condition.

We applied the Variable-Binning method (VB) implemented in INTERSNP-RARE [5][6] to an imputed case-control dataset containing 9832 controls and 3332 late-onset Alzheimer's disease (AD) cases, with 2,279,783 rare variants (MAF<0.05). It took <17h on a single processor and < 24Gb of memory for the complete analysis with 100 permutations. The VB method resulted in an analysis of 222,107,312 distinct bins, achieving a reduction of 99.85% compared to the full number of bins. An inflation factor of 1.060 was calculated from asymptotic p-values of distinct bins. As expected, the association with the known APOE locus was found.

Overall, the COLL VB method eliminates the choice of candidate bins, instead, the space of all possible bins is tested. This eliminates binning as a source of Type II error and is expected to improve power.

Automatic model selection with MBO: A bridge between high-dimensional survival analysis end efficient model optimization

Prof. Dr. Jörg Rahnenführer
Technische Universität Dortmund, Fakultät Statistik

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64
Uhrzeit:  9 Uhr s.t.
Datum:  3. Juli 2015

Model selection is a common task in survival analysis. For high-dimensional genetic data as covariables in survival models, many models and algorithms for fitting these models have been proposed. In the high-dimensional setting the selection of an optimal model is challenging with respect to long computation times of single models, the large number of potential models, and the additional necessity of tuning hyperparameters for many models. Only few models have elaborate automatic internal parameter tuning. Exhaustively trying out all models and all parameter combinations is computationally unfeasible, especially since hyperparameters are often continuous. We present a modern promising approach to this problem setting called model based optimization (MBO). MBO moves efficiently through the model hypothesis space and simultaneously configures algorithm classes and their respective hyperparameters. A so-called surrogate regression model is fitted to the model space, and the prediction performance on test data is the dependent (target) variable. MBO iteratively suggests new models with a classical exploration-exploitation trade-off that prefers models with either good performance estimates or high performance uncertainty. We apply MBO to various lung cancer data sets with high-dimensional covariates from the gene expression omnibus database (GEO), using the R package mlr for a unified access to survival models. Overall MBO clearly outperforms all single algorithms with autotuning of parameters as well as a classical benchmarking approach that can be regarded standard in today’s practice.

Prospektive Validierung von Biomarkern in Therapiestudien

Dr. Anika Großhennig
Institut für Biometrie, Medizinische Hochschule Hannover

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64
Uhrzeit:  11 Uhr c.t.
Datum:  26. Juni 2015

Biomarker haben im Rahmen der personalisierten Medizin in den letzten Jahren an enormer Bedeutung gewonnen. Im Vortrag wird sich insbesondere mit der Relevanz von Biomarkern zur Bewertung des Nutzen-Risiko-Verhältnisses eines Arzneimittels und deren Validierung im Rahmen von klinischen Studien befasst. Zu diesem Zweck werden die wichtigsten Studiendesigns zur Validierung vorgestellt und diskutiert. Darüber hinaus werden die wichtigsten Aspekte, die bei der Planung eines gemeinsamen Entwicklungsprogramms für ein Arzneimittel und einen Biomarker notwendig sind, zusammengefasst und anhand von Beispielen diskutiert. Darüber hinaus werden Alternativen erörtert, wie die Validierung des Biomarkers in das gesamte Entwicklungsprogramm des Arzneimittels eingebunden werden kann.

Covariance-based regularized regression

Prof. Dr. Harald Binder
Institut für Medizinische Biometrie, Epidemiologie und Informatik, Universitätsmedizin Mainz

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64
Uhrzeit:  11 Uhr c.t.
Datum:  8. Mai 2015

Multivariable regression models allow to simultaneously link several covariates to some response. Regularized regression techniques allow to estimate such models even when the number of covariates is larger than the number of observations. Specific approaches, such as the lasso of componentwise boosting, allow to simultaneously perform variable selection. I will specifically consider applications where the covariates indicate single nucleotide polymorphism (SNP) measurements, and the response is the case-control status from a corresponding study design. An interesting property of some parameter estimation algorithms for the lasso and boosting is that they can be expressed based on pairwise covariances between covariates and covariates and the response. This means that estimates can be obtained even when not the full covariate matrix with corresponding response vector is given. I will illustrate this for two types of applications. In case of blocks of missing covariates for some of the observations, the lasso estimate still can be obtained, e.g. when considering combinations of cohorts with different numbers of SNPs measured. I will also propose a boosting approach that takes into account the number of observations where a specific SNP has been measured. As a second application, I will consider estimation in a setting where individual SNP data but not the endpoint is given on the one hand, and results from univariate per-SNP analyses on the other hand. In both applications, I will highlight conditions needed for recovering the same signature that would be obtained from the full data.

Planning a cluster randomized cross-over trial - an example of our work for the Center for Sepsis Control and Care (CSCC)

Prof. Dr. André Scherag
Arbeitsgruppe Klinische Epidemiologie, Center for Sepsis Control and Care, Universitätsklinikum Jena

Ort des Vortrages:  AM S1
Uhrzeit:  11 Uhr c.t.
Datum:  23. Januar 2015

After a short introduction to the Integrated Research and Treatment Center, the Center for Sepsis Control and Care (CSCC), and topics addressed by my research group, I will review some background on biometrical planning for cluster randomized and cross-over trials. Next, I will switch to cluster randomized cross-over trials. I will describe the respective planning using an example of a pragmatic trial from our activities for the 2nd funding period of the CSCC. I will summarize my talk with a discussion of pros and cons of such a design and the related analyses issues for the given research question.

Nichtparametrische Klassifikation und Regression mit SVMs und anderen regularisierten Kern-Verfahren: Statistische Modelle und Inferenz

Prof. Dr. André Scherag
Arbeitsgruppe Klinische Epidemiologie, Center for Sepsis Control and Care, Universitätsklinikum Jena

Ort des Vortrages:  AM S1
Uhrzeit:  11 Uhr c.t.
Datum:  23. Januar 2015

After a short introduction to the Integrated Research and Treatment Center, the Center for Sepsis Control and Care (CSCC), and topics addressed by my research group, I will review some background on biometrical planning for cluster randomized and cross-over trials. Next, I will switch to cluster randomized cross-over trials. I will describe the respective planning using an example of a pragmatic trial from our activities for the 2nd funding period of the CSCC. I will summarize my talk with a discussion of pros and cons of such a design and the related analyses issues for the given research question.

Informative Konfidenzintervalle für hierarchische Tests und verwandte multiple Testverfahren

Prof. Dr. Werner Brannath
FB Mathematik/Informatik und Kompetenzzentrum für Klinische Studien Bremen, Universität Bremen

Ort des Vortrages:  Seminarraum IMBS
Uhrzeit:  11 Uhr c.t.
Datum:  7. November 2014

Das hierarchische Testen ist ein einfaches und populäres Verfahren zum Testen mehrerer Nullhypothesen, das ohne Adjustierung der Signifikanzniveaus auskommt. Hierbei werden die Hypothesen nach eine vorab festgelegten Ordnung gereiht, und eine Nullhypothese wird nur dann getestet, wenn alle vorgereihten Hypothesen verworfen werden können. Eine Häufige Anwendung hierarchischer Tests ist das Testen von Wirksamkeit in einem primären und sekundären Endpunkt. Ein großer Nachteil hierarchischer Tests ist die Schwierigkeit bei ihrer Erweiterung auf simultane Konfidenzintervalle. Konfidenzintervalle spielen bei der Quantifizierung der Behandlungseffekte oder zur Verbesserung von Nicht-Unterlegenheitsaussagen eine große Rolle. Wie bei anderen schrittweisen multiplen Testverfahren, haben die zum hierarchischen Testen gehörigen Konfidenzintervalle das Defizit, oft keine über den Hypothesentest hinausgehende Information zu liefern, wenn die Nullhypothese verworfen wurde. Beim hierarchischen Testen von einseitigen, nach oben beschränkten Nullhypothesen, beispielsweise, klebt die untere Konfidenzschranke der erstgereihten Hypothese am Rand der Nullhypothese, wenn immer sie verworfen wird. Es kann somit niemals ein Parameterwert außerhalb der Nullhypothese ausgeschlossen werden. Um diese Schwierigkeit zu umgehen, schlagen wir eine Modifikation des hierarchischen Tests vor, die zu Konfidenzintervallen führt, mit denen immer zusätzliche Information gewonnen wird. Die Modifikation führt zu keinem Powerverlust beim Testen der erstgereihten Nullhypothese und kann so gestaltet werden, dass der Powerverlust für die weiteren Hypothesen nur gering ist. Sie kann über ein Erweiterung der graphischen Testprozeduren von Bretz et al. (2014) dargestellt werden, und die entsprechen Konfidenzintervalle können durch einen einfachen rekursiven Algorithmus berechnet werden. Wir illustrieren die Methode anhand eines Beispiels und präsentieren die Resultate von Simulationsstudien über die Güte des Verfahrens. Wir geben zudem einen Ausblick auf andere informative Konfidenzintervalle, nämlich für die Fall-Back-Prozedur und den Bonferroni-Holm-Test.

Interpretation of linear regression coefficients under mean model miss-specifications

Prof. Dr. Werner Brannath
FB Mathematik/Informatik und Kompetenzzentrum für Klinische Studien Bremen, Universität Bremen

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  13.30 Uhr
Datum:  18. Juli 2014

Linear regression is an important and frequently used tool in statistics, however, its validity and interpretability relies on strong model assumptions. While robust estimates of the covariance matrix of the regression coefficients extend the validity of hypothesis tests and confidence intervals, a clear and simple interpretation of the regression coefficients is lacking when the mean structure of the model is miss-specified. To overcome this deficiency, we suggest a new intuitive and mathematical rigorous interpretation of the linear regression coefficients that is independent from specific model assumptions. The interpretation relies on a new population based measure of association. The idea is to quantify how much the unconditional population mean of the dependent variable Y  can be changed by changing the distribution of the independent variable X (in the population). We show that with square integrable observations and a suitable standardization of the distributional changes, the maximum change in the mean of Y is well defined and equals zero if and only if the conditional mean of Y given X is independent of X. Restriction to linear functions for the distributional changes in X provides the link to linear regression. It leads to a conservative approximation of the newly defined and generally non-linear measure of association. The conservative linear approximation can then be estimated by linear regression. We show how the new interpretation can be extended to multiple regression and how far (and in which sense) it leads to an adjustment for confounding. We illustrate the utility and limitations of the new interpretation by examples and in a simulation study, and we point to perspectives for new analysis strategies.

Statistical and methodological issues in pharmacogenomics

Dr. Stefan Winter
Institut für Klinische Pharmakologie, Robert-Bosch-Krankenhaus, Stuttgart

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  11 Uhr c.t.
Datum:  11. Juli 2014

Pharmacogenomics seek to explain the interindividual variability in drug disposition and response due to genetic variation. Efforts such as the Human Genome Project or the International HapMap Project have facilitated the identification of factors and mechanisms affecting patient outcome or drug toxicity. Pharmacogenomic investigations comprise genome-wide association studies (GWAS), pathway or candidate gene approaches; the latter may, e.g., incorporate genes involved in pharmacokinetics/-dynamics of a drug. Known challenges which may arise in such examinations include study design, confounding (population stratification), analysis and replication strategies, multiple testing issues or lack of reproducibility of results across studies. Based on selected examples from pharmacogenomics research, several of these issues will be addressed.

Variable selection with random forests for omics data sets

Dr. Silke Szymczak
Institut für Klinische Molekularbiologie, Christian-Albrechts-Universität zu Kiel

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  11 Uhr c.t.
Datum:  4. Juli 2014

Machine learning methods and in particular random forests (RFs) are promising approaches for classification based on high dimensional omics data sets. Variable importance measures allow variables to be ranked according to their predictive power. However, no clear criteria exist to determine how many variables should be selected for downstream analyses.
We evaluated several variable selection procedures based on methylation and gene expression data sets from the Gene Expression Omnibus and The Cancer Genome Atlas. RFs were used to estimate probabilities instead of binary classifications and variables were selected based on a permutation-based approach (PERM), recursive feature elimination (RFE) and our new method using recurrent relative variable importance measurements (r2VIM). Each data set was repeatedly split into training and test sets and comparisons were based on the number of selected variables and mean squared error (MSE) of a RF built on selected variables only. We also permuted the phenotype to generate data sets under the null hypothesis.
In all analyses, MSE were similar but PERM and r2VIM declared more than hundred variables as important while RFE selected only a handful. The latter approach was also the only one that used more variables under the null hypothesis compared to the original data. PERM and r2VIM selected the same variables when predicting gender differences, however, in a more complex problem of glioma subtypes, PERM identified additional important variables. Run time was comparable for RFE and r2VIM whereas PERM was 20 times slower.
In conclusion r2VIM is a sensible choice for variable selection in RF for application to high dimensional data sets. However, PERM should be preferred if false negative results need to be avoided and computational resources are not limited.

Performance Characteristics of Interim Decision Rules in Adaptive Enrichment Designs

Johannes Krisam
Institut für Medizinische Biometrie und Informatik, Universität Heidelberg

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  11 Uhr c.t.
Datum:  13. Juni 2014

The planning stage of a clinical trial investigating a potentially targeted therapy commonly incorporates a high degree of uncertainty whether the treatment is more efficient (or efficient only) in a subgroup as compared to the whole population. Recently developed adaptive designs allow a mid-course efficacy assessment of the total population and a pre-defined subgroup and a selection of the most promising target population based on the interim results (see, e.g., Wang et al., 2007; Brannath et al., 2009; Jenkins et al., 2011; Friede et al., 2012). Predictive biomarkers are frequently employed in these trials in order to identify a subset of patients more likely to benefit from a drug. The performance of the applied subset selection rule is crucial for the overall characteristics of the design.

We investigate the performance of various subgroup selection rules to be applied in adaptive two-stage designs. Methods are presented that allow an evaluation of the operational characteristics of rules for selecting the target population thus enabling to choose an appropriate strategy. The comparison includes optimal decision rules which take the situation of uncertain assumptions about the treatment effects into account by modeling the uncertainty about parameters by prior distributions (Krisam and Kieser, 2013). Furthermore, alternative selection rules proposed in the literature are considered. We evaluate the performance of these selection rules in adaptive enrichment designs by investigating Type I error rate and power. Both the situation of perfect and imperfect (e.g. sensitivity and/or specificity smaller than 100%) bioassays are considered.

Screening Interactions on high-dimensional data – A modular approach

Murat Sariyar
Institut für Pathologie, Charité - Universitätsmedizin Berlin

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  11 Uhr c.t.
Datum:  6. Juni 2014

Predictive biomarkers, especially gene-based ones, are usually wanted in order to predict risks associated with diseases. However, just using main effects frequently lead to too biased models. Biological knowledge indicates that gene-gene interactions may play an important role in the genetic etiology underlying diseases. Yet, we still do not have standard tools for considering interactions in high-dimensional statistical models. There are several approaches for this task. Here, we want to present a modular approach that can increase the power to detect interactions and is easily extendible with respect to its components.
First, we set the background with respect to notions such as statistical and biological interactions, epistasis and association. After that, existing approaches for screening two-way interactions are succinctly described. As a guiding difference, we use the distinction between knowledge-based and data-driven screening, with emphasis on the latter. Then, we motivate our approach: the main aim is to combine techniques in order to find interpretable interactions on the gene-level, even if the underlying variables show weak main effects. We use a regularized regression technique for evaluating the relevance of main effects and interactions, random forests (RF) for screening interactions, and refinements for improving the performance of RF, especially in order to stabilize results and find interactions related to variables with weak main effects. All techniques and the resulting final approach are described in a non-technical manner.
A cross-validated simulation study for evaluating the effect of interactions was conducted. The scenarios are shortly described and the results with a focus on sensitivity are presented. Besides the performance of our proposal, we also show the contribution of each component for the detection of interactions. The results show that RF can provide relevant interaction information, even without strong marginal effects. Pre-processing in the form of orthogonalization is important for achieving best interaction detection performances. Introducing correlations makes interaction detection difficult; however, the pre-selection of interactions is not as bad as the final selection, indicating some kind of robustness of RF. The results also show that a moderate variable inclusion frequency of an interaction term (e.g., 10 – 30%) still could point to an important interaction. Results on real data (not shown) indicate that the interactions found might be useful, but that their effects are rather weak.
We considered only two-way interactions in our study. It is important to extend our approach to higher-level interactions and to integrate biological knowledge in the screening process.

Genetics of major depression – the beginning has ended

Prof. Dr. Bertram Mueller-Myhsok
Max-Planck-Institut für Psychiatrie, München

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  11 Uhr c.t.
Datum:  16. Mai 2014

Whilst the genetic analysis of other major psychiatric phenotypes has been very successful recently, this has been much less the case for major depression (MDD). In my talk I will try to discuss possible reasons, notably related to a large gene-environment as well as gene-gene interaction components in individual risk which is not taken into account in genetic studies as usually performed. This is supported by recent functional work, also on MDD per se, but also on related phenotypes. Taking into account these factors in analysis, strong gains in power can be reached.

Adaption multivariater und multipler Testverfahren für hochdimensionale Daten der funktionellen Bildgebung

Dr. Daniela Adolf
StatConsult Gesellschaft für klinische und Versorgungsforschung mbH, Magdeburg

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64, 2. OG
Uhrzeit:  11 Uhr c.t.
Datum:  9. Mai 2014

Anhand funktioneller Magnetresonanztomographie (fMRT) ist es möglich, neuronale Aktivität indirekt zu messen. Bei fMRT-Aufnahmen eines Probanden handelt es sich um hochdimensionale Daten, die neben einer räumlichen Korrelation auch zeitliche Abhängigkeiten aufweisen. Die Anzahl der Variablen, der sogenannten Voxel, übersteigt dabei üblicherweise den Stichprobenumfang erheblich, welcher der Anzahl aufeinanderfolgender Messungen entspricht. In Standardsoftwaretools werden diese Daten zumeist voxelweise und multiple adjustiert über allgemeine lineare Modelle untersucht, wobei die zeitliche Korrelation der Messung über ein Pre-Whitening berücksichtigt wird. Hierbei wird gewöhnlich ein autoregressiver Prozess erster Ordnung unterstellt und dessen Korrelationskoeffizient geschätzt. Die Einhaltung des Fehlers 1. Art ist jedoch viel diskutiert (Eklund et al., 2012). Im Vortrag wird zum einen die multivariate Analyse dieser Daten anhand spezieller stabilisierter multivariater Verfahren betrachtet (Läuter et al., 1996 und 1998). Diese Testverfahren basieren auf linkssphärischen Verteilungen und arbeiten (bei unabhängigen Stichprobenvektoren) auch im hochdimensionalen Fall exakt. Zum anderen wird eine nichtparametrische Methode zum Umgang mit der zeitlichen Korrelation vorgestellt, die eine konkrete Annahme über die Korrelationsstruktur unnötig macht und dennoch den Fehler 1. Art approximativ einhält.

Introduction to gradient boosting

Prof. Dr. Matthias Schmid
Institut für Statistik, Ludwig-Maximilians-Universität München

Ort des Vortrages:  Seminarraum S 3b (Zentralklinikum)
Uhrzeit:  11 Uhr c.t.
Datum:  12. Februar 2014

During the past years, gradient boosting has become an established tool to fit generalized additive regression models (GAMs). An important feature of gradient boosting is its intrinsic mechanism for variable selection, which allows for carrying out feature selection and GAM estimation simultaneously. This regularization mechanism makes boosting a suitable method for analyzing data that are characterized by small sample sizes and large numbers of predictors.

The first part of the talk introduces the main ideas and characteristics of gradient boosting. Specifically, it is explained how to use boosting methods the derive GAM-based prediction models for biomedical outcomes. The second part of the talk demonstrates that gradient boosting is not restricted to classical GAMs but may also be used to handle regression problems without a likelihood function. An important example is the concordance index for survival data, which can conveniently be optimized with respect to a combination of predictor variables via gradient boosting techniques.

Evaluating Random Survival Forests in the presence of competing risks

Prof. Dr. Thomas A. Gerds
Department of Biostatistics, University of Copenhagen, Denmark

Ort des Vortrages:  Seminarraum S 3b (Zentralklinikum)
Uhrzeit:  11.00 Uhr c.t.
Datum:  29. Januar 2014

Time-to-event analysis where the occurrence of the event of interest can be precluded by another event is often referred to as competing risks. We introduce a new approach to competing risks using random forests. Our method is fully nonparametric and can be used for selecting event-specific variables and as a means for estimating the cumulative incidence function. We show that the method is highly effective for both prediction and variable selection in high-dimensional settings and in settings such as cancer where there may be many competing risks at play.   To assess prediction performance we use the concordance index and the prediction error defined by the (integrated) Brier score. The concordance index (C-index) is related to the area under the ROC curve and estimates the probability that, in a randomly selected pair of cases, the case that fails first had a worse predicted outcome. The Brier score is the squared difference between actual and predicted outcome. Both measures need to be adapted to the setting with competing risks.

Bayes-Verfahren in klinischen Studien

Dr. Joachim Gerß
Institut für Biometrie und Klinische Forschung, Westfälische Wilhelms-Universität Münster

Ort des Vortrages:  Seminarraum S 3b (Zentralklinikum)
Uhrzeit:  11.00 Uhr c.t.
Datum:  22. Januar 2014

In klinischen Studien können neben klassischen Verfahren der frequentistischen Statistik auch Bayes-Verfahren eingesetzt werden. Dabei kann man grundsätzlich in zweierlei unterschiedlicher Weise vorgehen. Zum einen kann das gesamte statistische Konzept der Studie auf Verfahren der Bayes-Statistik beruhen. Zum anderen bieten Bayes-Verfahren die Möglichkeit, im Rahmen eines grundsätzlich frequentistischen Konzeptes ergänzend eingesetzt zu werden. Im Vortrag werden einige besonders geeignete und aktuell verbreitete Bayes-Verfahren vorgestellt, die entweder den einen oder den anderen der beiden oben erwähnten Ansätze verfolgen. Die Bayes-Statistik beruht auf einem anderen Wahrscheinlichkeitsbegriff als die frequentistische Statistik, d.h. keiner frequentistischen Interpretation als Grenzwert einer relativen Häufigkeit, sondern der Interpretation einer Wahrscheinlichkeit als Ausdruck des aktuellen Wissens über den Wert eines unbekannten Parameters. Dementsprechend wird in der Bayes-Statistik eine so genannte A-priori-Verteilung verwendet, die das Vorwissen bzgl. des Parameters beschreibt. Indem die A-priori-Verteilung mit der empirischen Information aus den neu erhobenen Daten einer Studie kombiniert wird, wird die so genannte A-posteriori-Verteilung gewonnen. In einer frequentistisch konzipierten klinischen Studie ist das zentrale Element des statistischen Konzepts in der Regel ein Signifikanztest. In einem Bayes-Ansatz wird als zentrale Entscheidungsregel stattdessen die A-posteriori-Verteilung verwendet. Das Studienergebnis ergibt sich daraus, wie gut der zentrale unbekannte Parameter, z.B. der Therapieeffekt in einer Studie, eingegrenzt werden kann bzw. wie sicher man ist, dass der Effekt eine bestimmte Größe hat. Ein einfaches Beispiel für einen vollständigen Bayes-Ansatz in dem oben beschriebenen Sinn ist eine Überlebenszeitanalyse, in der ein Therapieeffekt als Hazard Ratio ausgedrückt wird. In einem zweiten Beispiel wird ein Bayes-Verfahren zur Durchführung von Subgruppenanalysen vorgestellt. Hier wird die Schätzung eines Odds Ratios in einer bestimmten Subgruppe von Patienten dadurch verbessert, dass die entsprechenden Schätzungen des Odds Ratios in anderen Subgruppen als Zusatzinformation hinzugezogen werden. Der Bayes-Ansatz zeichnet sich dadurch aus, das richtige Ausmaß zu bestimmen, mit dem verschiedene Subgruppen aufgrund ähnlicher Odds Ratiosübertragbare Informationen füreinander liefern. In zwei weiteren Beispielen wird die ergänzende Nutzung von Bayes-Verfahren in Studien vorgestellt, deren zentrale Auswertung mit einem frequentistischen Signifikanztest erfolgt. In einer randomisierten Studie werden die Patienten üblicherweise mit fester und während der gesamten Studie gleichbleibender Wahrscheinlichkeit den Therapiegruppen zugeteilt. Eine so genannte Response-adaptive Randomisierung erlaubt dagegen eine dynamische Zuteilung, so dass erfolgreichere Therapien im Laufe der Studie nach und nach mit immer größerer Wahrscheinlichkeit gewählt werden. Einen letzten vorgestellten Einsatzbereich (ergänzender) Bayes-Verfahren stellen Studien mit Zwischenauswertung dar. Hier kann anhand so genannter Predictive Probabilities zum Zeitpunkt der Zwischenauswertung eine Aussage über das spätere Studienergebnis getroffen werden. Diese Aussage ist sehr zuverlässig, da sie dadurch entsteht, dass sämtliche vorliegende Information zum Zeitpunkt der Zwischenauswertung genutzt wird. Dies geschieht, indem über die unbekannten Modellparameter sowie die zukünftig beobachteten Daten integriert wird. Die Integration erfolgt über die aktuelle A-posteriori-Verteilung zum Zeitpunkt der Zwischenauswertung. So ergibt sich die so genannte Bayesian Predictive Power, anhand derer entschieden werden kann, ob die Studie etwa wegen Aussichtslosigkeit abgebrochen werden sollte (Futility Stop), und wenn nicht, ob eine Anpassung der Fallzahl erfolgen sollte.

Normalization and Transformation of RNA-Seq data to predict patient outcome

Dr. Isabella Zwiener
Institut für Medizinische Biometrie, Epidemiologie und Informatik, Universitätsmedizin Mainz

Ort des Vortrages:  Seminarraum S 3b (Zentralklinikum)
Uhrzeit: 11.00 Uhr c.t.
Datum: 11. Dezember 2013

Gene expression measurements have successfully been used for building prognostic signatures, i.e. for identifying a short list of important genes that can predict patient outcome. Mostly microarray measurements have been considered, and there is little advice available for building multivariable risk prediction models from RNA-Seq data. We specifically consider penalized regression techniques, such as the lasso and componentwise boosting, which can simultaneously consider all measurements and provide both, multivariable regression models for prediction and automated variable selection. However, they might be affected not only by the normalization technique used, but also by the typical skewness, mean-variance-dependency or extreme values of RNA-Seq covariates. Therefore, an analysis could benefit from transformations of RNA-Seq data. In an analytical part, we highlight preferential selection of covariates with large variances, which is problematic due to the mean-variance dependency of RNA-Seq data. In a simulation study, we compare different transformations of RNA-Seq data for potentially improving detection of important genes. Specifically, we consider standardization, the log transformation, a variance-stabilizing transformation, the Box-Cox transformation, and rank-based transformations. In addition, the prediction performance for real data from patients with kidney cancer and acute myeloid leukemia is considered. We show that signature size, identification performance, and prediction performance critically depend on the choice of a suitable transformation. Rank-based transformations perform well in all scenarios and can even outperform complex variance-stabilizing approaches. Generally, the results illustrate that the distribution and potential transformations of RNA-Seq data need to be considered as a critical step when building risk prediction models by penalized regression techniques.

Approaches for subgroup identification based on a continuous covariate

Dr. Carina Ittrich
Boehringer Ingelheim Pharma GmbH & Co. KG

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64
Uhrzeit:  11.00 Uhr c.t.
Datum:  28. Juni 2013

The clinical research of the last years went more and more into the direction to evaluate treatment effects in the overall trial population as well as in focused subgroups, especially for molecularly targeted compounds. Recent publications provide strategies for the statistical analyses of clinical trials to demonstrate the benefit of a new drug for the overall population, only for a pre-specified subgroup of patients, or for the overall population and additionally an enhanced treatment effect for the subgroup of patients. Candidates for the definition of these subgroups are genetic markers, gene or protein expressions, but also classical demographic data, disease characteristics and clinical markers. In case these covariates are measured on a continuous scale this requires additionally the definition of a reasonable cut-off for dichotomization. Such a cut-off can be developed based on phase II data and used for confirmatory analyses in phase III. For this purpose several approaches using p-value, effect size or likelihood driven criteria are discussed in the literature. We will give an overview of these methods and illustrate their application for some case studies.

Heteroscedasticity: Multiple Degrees of Freedom vs. Sandwich Estimation

Dr. Mario Hasler
Lehrfach Variationsstatistik, Christian-Albrechts-Universität zu Kiel

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Geb. 64
Uhrzeit:  11.00 Uhr c.t.
Datum:  14. Juni 2013

This talk addresses the problem of multiple contrast tests in the presence of heteroscedasticity. A procedure applying multiple degrees of freedom and a procedure based on sandwich estimation are described and compared by simulations concerning the family-wise error type I. The former procedure seems to be most robust, especially for situations where high variances meet small sample sizes.

The use of two-way mixed models in multi-treatment meta-analysis

Prof. Dr. Hans-Peter Piepho
Institut für Kulturpflanzenwissenschaften, Fachgebiet Bioinformatik, Universität Hohenheim

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert)
Uhrzeit:  12.00 Uhr s.t.
Datum:  31. Mai 2013

Meta-analysis summarizes the results of a series of trials. When more than two treatments are included in the trials and when the set of treatments tested differs between trials, the combination of results across trials requires some care. Several methods have been proposed for this purpose, which feature under different labels, such as network meta-analysis or mixed treatment comparisons. Two types of linear mixed model can be used for meta-analysis. The one expresses the expected outcome of treatments as contrast to a baseline treatment. The other uses a classical two-way linear predictor with main effects for treatment and trial. In this paper we compare both types of model and explore under which conditions they give equivalent results. We illustrate practical advantages of the two-way model using two published datasets. In particular, it is shown that between-trial heterogeneity as well as inconsistency between different types of trial is straightforward to account for.

Die Analyse von Evidenzfluss und Inkonsistenz in Netzwerk-Metaanalysen

Dr. Jochem König
Institut für Medizinische Biometrie, Epidemiologie und Informatik, Universität Mainz

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert)
Uhrzeit:  10.00 Uhr c.t.
Datum:  17. Mai 2013

In der Medizin liegen zunehmend vergleichende Studien zu mehreren Therapien ein und derselben Indikation vor. Netzwerk-Metaanalysen erlauben es dann, Ergebnisse aus direkten Vergleichen zwischen zwei Behandlungen und solche aus Vergleichen zwischen anderen Behandlungen effizient zusammenzuführen. Solche gemischten Vergleiche enthalten also direkte und indirekte Evidenz. Um den Beitrag einzelner Studien zu einem gemischten Vergleich offenzulegen wird der gepoolte Schätzer als Linearkombination aus Effekten einzelner Studien dargestellt und gezeigt, das Menge der Linearkoeffizienten als Netzwerk von Flüssen bildet. Was als Gewicht in der einfachen Metaanalyse bekannt ist wird daher in der Netzwerk-Metaanalyse nun als Evidenzfluss bezeichnet. Dieselbe Betrachtung ergibt sich, wenn in einem ersten Schritt jeweils alle Studien, welche dieselbe Menge von Therapien vergleichen, gepoolt werden und der gemischte Behandlungsvergleich als Linearkombination der so gepoolten Schätzer dargestellt wird. Die Flusseigenschaft wird genutzt, um die graphische Darstellung des Evidenzflusses für einen Behandlungsvergleich zu verbessern. Für größere Netzwerke werden Maßzahlen definiert, welche einerseits die Verzweigtheit (Minimalparallelität) und anderer­seits die Mittelbarkeit (mittlere Pfadlänge) des Vergleiches charakterisieren. Inkonsistenz in einem Netzwerk kann verstanden werden als Diskrepanz zwischen einem Modell, welches für jedes Paar von Behandlungen einen eigenen Effekt vorsieht, der nur in Studien erschlossen wird, welche diese Behandlungen vergleichen, und einem Konsistenz-Modell, welches allein durch Unterschiede zu einer gemeinsamen Referenz­behandlung charakterisiert ist. Durch den Vergleich dieser Modelle ergeben sich die Zerlegung von Cochran’s Q-Statistik für Netzwerk-Metaanalysen in einfache Heterogenitäts­sta­tistiken und eine Inkonsistenz-Q-Statistik. Die Frage, ob sich Inkonsistenz auf wenige abweichende direkte Vergleiche zurück­füh­ren lässt, kann durch eine gemeinsame Betrachtung von Residuen und Netzwerkstruktur, verstanden als Menge aller Evidenzflüsse, erschlossen werden.  Hierzu wird als Werkzeug der Net-Heat-Plot bereitgestellt. Damit wird erkennbar, ob ein abweichender Vergleich gleich­zeitig mehrere Residuen aufbläht. Die darin erkennbaren Hotspots entsprechen Gruppen von direkten Vergleichen mit korrelierten großen Residuen unter denen einer oder mehrere die Quelle der Inkonsistenz sein können. Die neuen Methoden und Werkzeuge werden an künstlichen und publizierten Netzwerk-Metaanalysen zu vier Rauch­ent­wöh­nungs­behand­lun­gen und zu zwölf Antidepressiva illustriert.

Variance estimators for Brier scores

Sarah Marzi
Institut für Medizinische Biometrie und Medizinische Informatik, Universitätsklinikum Freiburg

Ort des Vortrages:  AM S1
Uhrzeit:  12.00 Uhr c.t.
Datum:  8. Mai 2013

Assessment of predictive accuracy is crucial to clinical research and applications. Survival time predictions of disease outcomes are of interest to researchers, clinicians and patients alike. The Brier score (Graf et al., 1999) has been proposed and studied as a useful measure of predictive accuracy. However, the variance that stems from estimating it in patient samples has not been addressed in detail yet. A recent paper by Antolini et al. (2012) provides a subgroup weighting scheme for censored survival data. Using this scheme an estimator for the variance of the Brier score is derived for discrete prediction models. These provide a finite classification scheme of with equal survival probability for patients in the same category. Since one of the major applications of the Brier score is the comparison of different prognostic models a second variance estimator is presented: it quantifies the variance which results when estimating the difference of two Brier scores for two discrete prognostic models that are evaluated on the same data set. A study in patients with breast cancer will be used to illustrate the results of the variance estimators comparing two established prognostic classification schemes. Additionally, a simulation study will show the performance of the estimators in small samples and in presence of censoring.

Integrating Multiple Phenotypes For Association Mapping

Prof. Dr. Saurabh Ghosh
Human Genetics Unit, Indian Statistical Institute, Kolkata

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  23. April 2013

Most clinical end-point traits are governed by a set of quantitative and qualitative precursors and a single precursor is unlikely to explain the variation in the end-point trait completely. Thus, it may be a prudent strategy to analyze a multivariate phenotype vector possibly comprising both quantitative as well as qualitative precursors for association mapping of a clinical end-point trait. The major statistical challenge in the analyses of multivariate phenotypes lies in the modelling of the vector of phenotypes, particularly in the presence of both quantitative and binary traits in the multivariate phenotype vector. text-autospace:none">  For population-based data, we propose a novel Binomial regression approach that models the likelihood of the number of minor alleles at a SNP conditional on the vector of multivariate phenotype using a logistic link function. For family-based data comprising informative trios, we propose a logistic regression method that models the transmission probability of a marker allele from a heterozygous parent conditioned on the multivariate phenotype vector and the allele transmitted by the other parent. In both the approaches, the test for association is based on all the regression coefficients.   We carry out extensive simulations under a wide spectrum of genetic models and probability distributions of the multivariate phenotype vector to evaluate the powers of our test procedures. We apply the proposed methods to analyze a vector of four endophenotypes associated with alcoholism: the maximum number of drinks in a 24 hour period, Beta 2 EEG Waves, externalizing symptoms and the COGA diagnosis trait in the Collaborative Study on the Genetics of Alcoholism (COGA) project.

Predictive genomic signatures Biomarker discovery in high-dimensional data

Axel Benner
German Cancer Research Center, Heidelberg, Germany

Ort des Vortrages:  S 3b, Zentralklinikum
Uhrzeit:  11 Uhr s. t.
Datum:  15. Februar 2013

No treatment works the same for every patient. Few therapies will benefit all patients, and some may even cause harm. Hence, biological markers ("biomarkers") are required that can guide patient tailored therapy. Using omics technologies the challenge is to derive a predictive genomic signature from a large number of candidates.   Commonly the identification of potentially predictive biomarkers is addressed by inference of regression models including interaction terms between the (continuous) biomarkers and the treatment assignment. To derive a prediction model based on a list of potentially predictive biomarkers we propose to combine componentwise screening with a final modelling step comprising a forward stepwise selection of interactions.   To screen for predictive biomarkers we investigated several extensions to standard approaches including multivariable fractional polynomials, concordance regression, and the application of the permutation of regressor residuals test. In the modelling step grouped penalization was applied.   We used simulation studies to assess the utility of the proposed procedures. Applications to two prospectively planned, randomized clinical trials will illustrate our findings.

Added predictive value and validation issues in the analysis of high-dimensional molecular data

Prof. Anne-Laure Boulesteix
Medizinische Fakultät, Institut für Medizinische Informationsverarbeitung, Biometrie und Epidemiologie, Ludwig-Maximilians-Universität München

Ort des Vortrages:  S 3b, Zentralklinikum
Uhrzeit:  11 Uhr s. t.
Datum:  18. Januar 2013

Hundreds of prediction models have been proposed in the biomedical literature to predict patient outcome in clinical settings from high-dimensional molecular data, many of which eventually failed to get validated. In the first part of this talk, I will briefly introduce state-of-the-art supervised classification methods addressing this task and discuss important issues related to validation such as over-optimism in the evaluation of prediction algorithms.   The second part of the talk will be devoted to the problem of the added predictive value of high-dimensional molecular data given that classical clinical predictors are already available. How can we fit combined prediction models using both types of predictors? How can we assess the relative importance of a high-dimensional block of molecular predictors and a low-dimensional block of clinical predictors? How can we validate added predictive value based on an independent validation data set? I will critically survey existing approaches and suggest new procedures to address these questions.

Optimal discrete two-stage study design for genome-wide association studies

Prof. Dr. Sergey Postovalov
Department of Applied Mathematics, Novosibirsk State Technical University, Russia

Ort des Vortrages:  S 3b, Zentralklinikum
Uhrzeit:  11 Uhr s. t.
Datum:  7. Dezember 2012

Genome-wide Association Studies (GWAS) are expensive in terms of both phenotyping and genotyping. In two-stage association designs, a subset of all subjects is genotyped on the genome-wide scale in the first stage, and the remaining subjects are genotyped for candidate single nucleotide polymorphisms (SNPs) subsequently. This approach can lead to a substantial reduction in total study cost. Modern genotyping technologies allow the use of 96 and 384 well plates. In this presentation, optimal study designs will be considered when the first stage sample size is a multiple of the well plate size. Monte-Carlo simulations are used to find the optimal number of well plates and type I error levels for the first stage and the second stage. Special attention is given to the special case when the mode of inheritance is unknown. It will furthermore be shown that the costs can be expressed in terms of the Kullback-Leibler distance.

Schätzung der lokalen Varianz für unzensierte und zensierte Daten

Paola Gloria Ferrario
Universität Stuttgart

Ort des Vortrages:  S 3b, Zentralklinikum
Uhrzeit:  10.30 Uhr s. t.
Datum:  30. November 2012

Die Fragestellung der Schätzung der lokalen Varianz, die in diesem Vortrag behandelt wird, wurde durch eine Anwendung im medizinischen Bereich motiviert. Wir nehmen an, dass ein Patient unter einer bestimmten Krankheit leidet, und der behandelnde Arzt den Krankheitsverlauf prognostizieren möchte. Von Interesse dabei ist es, die mittlere Überlebenszeit Y, aufgrund einer Beobachtung des d-dimensionalen Prädiktor-Zufallsvektors X – d.h. die Regressionsfunktion - zu schätzen. Die Vorhersagequalität der Regressionsfunktion wird global durch den sog. minimalen mittleren quadratischen Fehler und lokal durch die lokale Varianz angegeben. Ziel ist es, die lokale Varianz anhand geeigneter Schätzmethoden (Kleinste Quadrate, Lokale Mittelung, Nächste Nachbarn) zu schätzen. Ein zusätzliches Problem dabei ist, dass die Informationen von Patienten, über die die Ärzte verfügen, oft nicht vollständig sind oder, selbst während der Behandlung, aus verschiedenen Gründen enden (Zensierung). Mehrere Schätzer der lokalen Varianz werden angegeben, sowohl im unzensierten als auch im zensierten Fall, ihre Konsistenz wird gezeigt und die Konvergenzgeschwindigkeit wird unter Glattheitsvoraussetzungen ermittelt. Die Leistung zweier gewählter Schätzer wird anhand Simulationen verglichen.

Anpassungstests für nichtlineare Zeitreihenmodelle

Marco Singer, M.Sc.
Leibnitz Universität Hannover

Ort des Vortrages:S 3b, Zentralklinikum
Uhrzeit:13.30 Uhr s. t.
Datum:  30. November 2012

Aufbauend auf einer Arbeit von Y.Nishiyama werden Anpassungstests für allgemeine nichtlineare Zeitreihenmodelle entwickelt. Diese sind verteilungsfrei und in Spezialfällen wird entweder die Konsistenz bewiesen oder gezeigt, dass ein Test inkonsistent ist. Die Voraussetzungen zur Konvergenz der Testgrößen werden untersucht und hinreichende Bedingungen angegeben, die die Anwendbarkeit des Tests in den oben erwähnten Spezialfällen sicherstellen. Im Anschluss wird in Simulationsstudien überprüft, über welche empirischen Eigenschaften die vorgestellten Testgrößen verfügen.

Factors Affecting the Intubation Condition Created by Mivacurium. A Meta-Analysis and Meta-Regression Analysis

Samson Hadush Mesfin
Johannes Gutenberg Universität Mainz, Mainz

Ort des Vortrages:  S 3b, Zentralklinikum
Uhrzeit:  12.00 Uhr s. t.
Datum:  30. November 2012

Intubation is the process of inserting a flexible tube anywhere in the human body. It is used in emergency medicine to help when a patient have difficulty in breathing, and to keep the airway open for delivery of anesthetic drugs and oxygen during surgery. Mivacurium is a non-depolarizing neuromuscular blocker used to facilitate intubation. The objective of the paper is to identify the factors that affect the probability of excellent intubation condition of Mivacurium (EIC). A total of 1029 patients from 51 randomized and controlled clinical trials were studied using meta-analysis methods. Classical and Bayesian statistical approaches were used. In meta-analysis fixed effect and random effects models can be used to combine results from the different studies included in the meta-analysis. Fixed effect model assumes a common true effect underlying all the studies and all difference in the effect size is due to sampling error. In contrast, the random effects model allows the true effect size to vary from study to study, and accounts for both within and between study variability in the estimation process. Results from fixed effect and random effects meta-analysis showed lack of significant effect of mivacurium on the probability of excellent intubation condition. Graphical and statistical methods for heterogeneity showed substantial heterogeneity in the effect size across the different studies included in the meta-analysis. Methods for publication bias showed no publication bias. To explore the sources of heterogeneity fixed effect and random effects meta-regression models were fitted. Results from the classical meta-regression models showed that dose, average age, time to intubation (tstart) and age by tstart interaction term are the variables that significantly affect the probability of excellent intubation condition. The Bayesian approach on the other hand showed the probability of excellent intubation condition varies with dose and age by tstart interaction for the fixed effect model, and by dose for the random effects meta-regression. However, interpretation of the results should be done with caution since meta-analysis as an observational study is subject to confounding and ecological bias.

Comparison of two diagnostic tests in a within-subject design regarding sensitivity and specificity-investigation of different approaches

Dr. Antonia Zapf
Abteilung Medizinische Statistik, Universitätsmedizin Göttingen

Ort des Vortrages:  S 3b, Zentralklinikum
Uhrzeit:  11 Uhr c. t.
Datum:  16. November 2012

In diagnostic studies a new diagnostic test is often compared with a standard test in a within-subject design. For the estimation of the difference between two dependent tests confidence intervals for the difference of two dependent rates (i.e. sensitivities or specificities) can be used. There are many feasible intervals, but no clear recommendation which one to apply in this case. Newcombe compared in 1998 ten approaches for the whole parameter space and gave summarized results. But for diagnostic studies only a reduced parameter space is relevant (for example sensitivity and specificity greater or equal than 0.8) and since Newcombe’s article some more approaches (Agresti and Tango confidence intervals, non-parametric methods based on relative effects and "free marginal GEE`s") were proposed.   In the talk I will present the results of the comparison of the various approaches (type one error, power and the example of Dickel et al.).  

1.  Newcombe, R.G. “Improved confidence intervals for the difference between binomial proportions based on paired data”, Statistics in Medicine 17, 2635-50 (1998).
2.   Brunner E. and Munzel U. “The nonparametric Behrens-Fisher problem – asymptotic theory and small sample approximation”, Biometrical Journal, 42, 17-25 (2000).
3.  Leisenring W. et al. “A marginal regression modeling framework for evaluating medical diagnostic tests”, Statistics in Medicine, 16, 1263-1281 (1997).
4.  Dickel H. et al. “Increased sensitivity of patch testing by standardized tape stripping beforehand: a multicenter diagnostic accuracy study”, Contract Dermatitis, 62, 294-302 (2010). 
5.  Wenzel D, and Zapf A. “Difference of two Dependent Sensitivities and Specificities: Comparison of Various Approaches”, submitted.

PLS - Mini-Review und eigene Erfahrungen

Dr. Dirk Repsilber
Leibniz-Institut für Nutztierbiologie, Dummerstorf

Ort des Vortrages:  AM 4, Audimax Hörsaal 4
Uhrzeit:  14.00 Uhr c.t.
Datum:  26. Oktober 2012

Sollen phänotypische oder klinisch relevante Daten aus molekularen Profilen (z.B. Genexpressions- oder Metabolitprofile) vorhergesagt werden, stellt sich das Problem der im Vergleich zur Anzahl Proben deutlich größeren Anzahl molekularer Variablen. Ein Lösungsansatz besteht in der Erzeugung sogenannter latenter Variablen. Es werden vor allem zwei Verfahren vorgestellt, die eine Regression mit latenten Variablen durchführen: die Hauptkomponenten-Regression (PCR) und die Partial-Least-Squares-Regression (PLSR). Es wird der NIPALS-Algorithmus vorgestellt, der zur Berechnung der latenten Variablen dienen kann. Basierend auf einer kleinen Simulationsstudie werden Unterschiede zwischen PCR und PLSR beleuchtet. Außerdem wird auf weiterführende Ansätze zur Variablenselektion und zur Verwendung von Vorwissen über molekulare Netzwerke verwiesen, bei denen spezialisierte Ansätze aus der PLS-Familie zur Verwendung gelangen. Der Vortrag soll nur als Einführung verstanden werden, für Details werden weiterführende Referenzen angegeben und Skripte zur Verfügung gestellt.

Multiple Kontrasttests in Assoziationsstudien: Testen verschiedener Formen von Vererbung und unklarer Interaktion

Prof. Dr. Ludwig Hothorn
Institut für Biostatistik, Leibniz Universität Hannover

Ort des Vortrages:  Seminarraum AM S 1, Audimax
Uhrzeit:  13.00 Uhr s.t.
Datum:  28. Juni 2012

Drei neue statistische Auswertestrategien populations-basierter Assoziationsstudien werden diskutiert:

  •  nicht-parametrische modell-basierte Max-Tests für schief-verteilte quantitative Phänotypen (basierend auf Konietschke et al. Nonparametric Evaluation of Quantitative Traits in Population-Based Association Studies when the Genetic Model is Unknown PLOS ONE 7(2): e31242. doi:10.1371)
  • Identifikation unklarer Wechselwirkungen auf Basis eines Varianzheterogenitätstests (basierend auf Hothorn et al. Model-specific tests on variance heterogeneity for detection of potentially interacting genetic loci. BMC Genetics (in print 2012))
  • Kompromiss der Alternativhypothesen zwischen Heterogenität (quadratische Formen) und strikter Ordnungsrestriktion (Max-Test linearer Formen)  

Statistisch gesehen sind Max-Tests als multiple Kontrasttests die Grundlage- deren Vor- und Nachteile bei der Auswertung von Assoziationsstudien werden diskutiert. Vor- und Nachteile simultaner Konfidenzintervalle gegenüber adjustierte p-Werte werden problematisiert. Anhand dreier Realdatenbeispiele (ausgewählte SNPs bis hin zu GWA) werden obige Methoden veranschaulicht, wobei die R Pakete multcomp, nparcomp und mratios benutzt werden.

Small-study effects and heterogeneity in meta-analysis

Dr. rer. nat. Gerta Rücker
University Medical Center Freiburg, Institute of Medical Biometry and Medical Informatics

Ort des Vortrages:  Seminarraum Mathematik 1 (Hilbert), Raum 3.015, Gebäude 64 (Informatik)
Uhrzeit:  11.00 Uhr s.t.
Datum:  27. April 2012

For various reasons, small studies show sometimes different, often larger, treatment effects than large studies. Such `small-study effects' can affect the validity of meta-analyses and lead to bias in systematic reviews, particularly if caused by reporting bias.

In this talk we introduce the concept of a limit meta-analysis, which yields shrunken estimates of the study effects, based on an extended random effects model including a parameter representing small-study effects. This leads to pooled treatment effect estimates adjusted for small-study effects [1, 2]. Simulation studies have shown that the limit meta-analysis yields treatment effect estimates that are more robust against both heterogeneity and small-study effects than established estimates [3]. The concept of limit meta-analysis also gives rise to a new measure, termed G^2, for heterogeneity that remains after small-study effects have been accounted for.   The adjusting method and the new measure are illustrated using meta-analyses of binary data. 

[1] Moreno S, Sutton A, Ades A, Stanley T, Abrams K, Peters J, Cooper N. Assessment of regression-based methods to adjust for publication bias through a comprehensive simulation study. BMC Medical Research Methodology 2009; 9:2. URL www.biomedcentral.com/1471-2288/9/2/abstract
[2] Rücker G, Schwarzer G, Carpenter J, Binder H, Schumacher M. Treatment effect estimates adjusted for small-study effects via a limit meta-analysis. Biostatistics 2011; 12(1):122-142. Doi:10.1136/jme.2008.024521.
[3] Rücker G, Carpenter J, Schwarzer G. Detecting and adjusting for small-study effects in meta-analysis. Biometrical Journal 2011; 53(2):351-368. 

(This is joint work with James Carpenter and Guido Schwarzer)

Social Causation and Social Selection. Wie der sozio-ökonomische Status einen genetischen Effekt beeinflussen kann.

Dr. rer. nat. Ronja Foraita
Bremer Institut für Präventionsforschung und Sozialmedizin, Institut für Epidemiologie und Präventionsforschung, Bremen

Ort des Vortrages:  FHL 1-1.08, Atrium-Geb., Raum 1-1.08
Uhrzeit:  11.00 Uhr s.t.
Datum:  17. Februar 2012

Verschiedene Studien haben aufgezeigt, dass der Einfluss genetischer Faktoren auf psychische Eigenschaften (Turkheimer et al., 2003) oder Verhaltensweisen (Tuvblad et al., 2006) in einer sozial-ökonomisch bevorzugten Umwelt stärker ausgeprägt ist als in einer sozial-ökonomisch benachteiligten Umwelt. Begründet wird dies dadurch, dass Menschen aus privilegierten „Sozialschichten“ den sozialen und ökonomischen Risikofaktoren, die für bestimmte Phänotypen prädisponieren, nicht in dem Maße ausgesetzt sind.
Es werden unterschiedliche Theorien diskutiert, wie der genetische Hintergrund und der Sozio-ökonomische Status (SES) zusammen auf den Phänotypen wirken können. South und Krueger (2011) sprechen von der „Social Causation“ und der „Social Selection“ Theorie.
Bisherige Studien konzentrieren sich auf Zwillingsstudien, die nicht explizit genetisches Material erhoben haben, um ein Zusammenspiel zwischen Genetik und SES zu analysieren. In der Regel werden dafür Strukturgleichungsmodelle (SGM) verwendet, die den Vorteil haben sowohl latente Variablen, wie den SES, als auch kausale Abläufe über mehrere Schritte modellieren zu können.
Ziel unserer Untersuchung ist, ob der genetische Einfluss des FTO Gens auf Adipositas auch über sozio-ökonomische Faktoren sowie über weitere Sozialfaktoren (TV/PC-Konsum, Essverhalten, körperliche Aktivität) moderiert wird. Dafür werden SGMs auf genetische Assoziationsdaten angewendet und die Theorien der Social Causation und Social Selection in entsprechende Modelle umgesetzt und miteinander verglichen.
South SC, Krueger RF (2011) Genetic and environmental influences on internalizing psychopathology vary as a function of economic status. Psychol Med, 41, 107-117.
Turkheimer E, Haley A, Waldron M, D'Onofrio B, Gottesman II (2003) Socioeconomic status modifies heritability of IQ in young children. Psychol Sci, 14, 623-628.
Tuvblad C, Grann M, Lichtenstein P (2006) Heritability for adolescent antisocial behavior differs with socioeconomic status: gene-environment interaction. J Child Psychol Psychiatry, 47, 734-743.

Robust generalized linear models and their implementation using R

PD Dr. Justo Lorenzo Bermejo
UniversitätsKlinikum Heidelberg, Medizinische Biometrie und Informatik, Heidelberg

Ort des Vortrages:  FHL 1-1.08, Atrium-Geb., Raum 1-1.08
Uhrzeit:  11.00 Uhr s.t.
Datum:  3. Februar 2012

The robust approach to statistical modeling aims at deriving methods that produce reliable estimates not only when data follow a given distribution exactly, but also when this happens approximately. The generalized linear model (GLM) allows the distribution of the dependent variable to belong to the exponential family, which also includes not continuous distributions. Other than simple linear relationships between response and explanatory variables are permitted.

I have explored current facilities of the free software environment for statistical computing R to identify influential cases in GLMs and to carry out robust GLMs. During the presentation, I will summarize relevant theoretical and technical details and apply R to investigate real datasets by robust and standard GLMs, including robust variance estimates. 

Methods and software for robust estimation of GLM are still sparse and mainly limited to Logistic and Poisson regression. The “car” and “robustbase” packages provide convenient functions for diagnostic plots and for fitting robust GLMs. In many practical situations, the implementation of robust GLMs is relatively straightforward and the comparison between standard and robust estimates may be advantageous.

Integrative Analysis of Microarrays

Dr. Felix Engel
Deutsches Krebsforschungszentrum, Heidelberg

Ort des Vortrages:  Seminarraum IMBS
Uhrzeit:  15.30 Uhr s.t.
Datum:  26. Januar 2012

Microarray technology is a key component in the study of cancer. The bioinformatics platform presented in this talk enables scientists to structure, analyze and communicate data gathered in this area of research. The software covers the pathology, molecular genetics and biostatistics of microarray analysis in detail. It is used by scientists from these three different fields of science.

Automated gene calling

Univ.-Prof. Dr. Peter Schlattmann
Institut f. Medizinische Statistik, Informatik und Dokumentation, Universitätsklinik Jena, Friedrich Schiller Universität Jena

Ort des Vortrages:  FHL 1-1.08, Atrium-Geb., Raum 1-1.08
Uhrzeit:  11.00 Uhr s.t.
Datum:  2. Dezember 2011

Visual inspection of the clusterplot for each trait-associated SNP is still the recommended strategy for ascertaining the accuracy of the genotyping (Pearson and Manolio, 2008). This requires two independent reviewers and is time consuming for genome wide association studies. Automated procedures are necessary with the advent of large-scale genotyping, which assays at least hundreds of thousands of SNPs. Here a model based calling algorithm which can be performed unsupervised is presented based on finite mixture models is presented. In contrast to the approach by Teo et al (2007) the number of mixture components does not need to be fixed in advance. This is achieved by applying the VEM-algorithm (Schlattmann, 2009) for bivariate normal data.
The validity of the method is investigated in a large scale simulation study.

Pearson, T. A. & Manolio, T. A. (2008). How to interpret a genome-wide association study.
Journal of the American Medical Association, 299, 1335-1344..

Schlattmann, P. (2009). Medical Applications of Finite Mixture Models. Berlin: Springer.

Teo, Y. Y., Inouye, M., Small, K. S., Gwilliam, R., Deloukas, P., Kwiatkowski, D. P. & Clark, T. G.(2007). A genotype calling algorithm for the Illumina BeadArray platform. Bioinformatics,23, 2741-2746.


Zahra Nemati
Leibniz Institute for Farm Animal Biology (FBN), Research unit Genetics and Biometry, WG Biomathematics and Bioinformatics

Ort des Vortrages:  FHL 1-1.08, Atrium-Geb., Raum 1-1.08
Uhrzeit:  11.00 Uhr s.t.
Datum:  11. November 2011

The partial least squares method is a multivariate data analysis method which is being used in many fields such as; physics, chemistry, industry, medicine, bioinformatics, and so on.
Since articles of PLS are often difficult to understand, in this lecture I am going to describe this method using other data analysis methods, step by step. First, I will give a short introduction to the Ordinary Least Squares (OLS) and Principal Component Regression (PCR), because they help us understanding and interpreting the PLS method and results easier and better. Secondly, two general algorithms, NIPALS (nonlinear iterative partial least squares) and SIMPLS (simple iteration partial least squares) will be explained. Finally, I am going to present an application of this theory together with an example.

P.S.: I hope that we will learn useful points from our discussion after the talk and have a nice time together.

Bewertung der Relevanz von Therapieeffekten auf der Basis der Ergebnisse klinischer Studien

Prof. Dr. Joachim Röhmel

Ort des Vortrages:  FHL 1-1.08, Atrium-Geb., Raum 1-1.08
Uhrzeit:  11.00 Uhr s.t.
Datum:  4. November 2011

Für die Beurteilung der klinischen Relevanz von Ergebnissen aus klinischen Studien gibt es bisher nur wenige allgemein anerkannte Kriterien. Hier sind vielleicht in erster Linie zu nennen, dass Therapieeffekte umso relevanter eingeschätzt werden, je größer sie sind, und dass auch kleine Therapieeffekte als relevant eingestuft werden können, wenn das zugehörige Krankheitsbild schwerwiegend ist. Sicher ist, dass in Europa keine Arzneimittel zugelassen werden ohne dass zugleich die klinische Relevanz der erzielten Effekte bestätigt wird. Diese Bestätigung ist oft qualitativer Natur, d.h. ohne eine zugehörige befriedigende quantitative Analyse. Ich will in meinem Vortrag über quantitative Ansätze in der Literatur und Praxis berichten und diese Ansätze kritisch beleuchten.

Meta-analysis for diagnostic accuracy studies: A new statistical model using beta-binomial distributions and bivariate copulas

PD Dr. Oliver Kuss
Institut für Medizinische Epidemiologie, Biometrie und Informatik, Medizinische Fakultät, Martin-Luther-Universität Halle-Wittenberg, Halle (Saale)

Ort des Vortrages:  FHL 1-1.08 - FHL 1-1.08 - FHL, Artrium-Geb.,
Raum 1-1.08 Uhrzeit:  10.00 s.t.
Datum:  28. Oktober 2011

Meta-analyses for diagnostic accuracy studies are complicated by the fact that two parameters of interest (sensitivity and specificity) are given by each study, leading to statistical models with bivariate responses. We propose a new model using beta-binomial marginal distributions and bivariate copulas to this task. The model comes with the advantage that sensitivity and specificity are modelled on their original scale while still allowing for (1) these being correlated within each study, (2) these being heterogeneous across studies, (3) accessing the individual patient data, (4) allowing extreme values of 100% sensitivity and specificity, and (5) using standard software (e.g., SAS PROC NLMIXED). Compared to the current standard model [1,2], our model has a closed-form likelihood, thus facilitating parameter estimation. Finally, by using different copulas, the model allows for different correlation patterns between sensitivity and specificity.
We illustrate the methods by the classical example of Glas et al. [3] on the diagnostic accuracy of a urinary tumor marker (telomerase) for the diagnosis of primary bladder cancer. Moreover, we report on simulation results comparing our model to the current standard model.

[1] Chu H, Cole SR. Bivariate meta-analysis of sensitivity and specificity with sparse data: a generalized linear mixed model approach. J Clin Epidemiol. 2006;59:1331–3.
[2] Hamza TH, van Houwelingen HC, Stijnen T. The binomial distribution of meta-analysis was preferred to model within-study variability. J Clin Epidemiol. 2008;61:41–51.
[3] Glas AS, Roos D, Deutekom M, Zwinderman AH, Bossuyt PM, Kurth KH. Tumor markers in the diagnosis of primary bladder cancer. A systematic review. J. of Urol. 2003;169(6):1975-82.

Probability Machines: Consistent Estimation of Probability and Risk Using Nonparametric Learning Machines

Prof. James D. Malley
Center for Computational Bioscience, Center for Information Technology, National Institutes of Health, Bethesda, Maryland, USA

Ort des Vortrages:  AM S1
Uhrzeit:  12.00 s.t.
Datum:  22. September 2011

Many statistical learning machines can provide an optimal classification for binary or category outcomes. However, for personalized medicine probabilities are better suited for risk estimation using individual patient characteristics. It is noted that any statistical learning machine that is consistent for the nonparametric regression problem is also consistent for the probability estimation problem. These will be called probability machines. For evaluating probabilistic forecasting it is known that strictly proper scores are preferred, one example being the Brier statistic. It is shown that any consistent machine also minimizes the expected Brier score, so that evaluation of any probability machine is transparent. Probability machines discussed include classification and regression random forests, and nearest‐neighbor schemes, all of which use any collection of predictors with arbitrary statistical structure. For comparison we study the classical parametric approach of logistic regression, and the learning machine logitboost. Two synthetic and two real data sets illustrate the use of these machines, and several extensions of these machines are considered for other data structures and prognostic diagnosis. Finally, we discuss recent developments in this area, including probabilistic ranking of feature importances, and probabilistic network detection.

Identifizierung krankheitsassoziierter SNPs und SNP-Interaktionen in Fall-Eltern-Trio-Studien

Dr. Holger Schwender
Fakultät Statistik, Technische Universität Dortmund

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 s.t.
Datum:  8. Juli 2011

Eines der Hauptziele von genetischen Assoziationsstudien ist die Identifizierung von Einzelnukleotidpolymorphismen (SNPs; Single Nucleotide Polymorphisms), die das Risiko, eine Krankheit zu erleiden, entscheidend beeinflussen können. Alternativ zu Fall-Kontroll-Studien werden häufig auch Fall-Eltern-Trio-Designs mit Kindern, die eine Krankheit haben, und deren Eltern verwenden, um solche SNPs zu finden. Ein populärer Test, um die Assoziation eines SNPs mit einer Krankheit in Fall-Eltern-Trio-Studien zu testen, ist der gTDT (genotypic transmission/disequilibrium test; Schaid, 1996), der auf einer bedingten logistischen Regression basiert. Die Schätzung der Parameter eines solchen Regressionsmodells erfordert normalerweise die Verwendung eines iterativen Verfahrens, die in genomweiten Assoziationsstudien mit hunderttausenden SNPs zeitaufwendig ist. Ich werde in meinem Vortrag zeigen, dass die spezielle Datenstruktur in Fall-Eltern-Trio-Studien zu exakten, analytischen Lösungen für die  Parameterschätzer führt, deren Verwendung die Rechenzeit in genomweiten Assoziationsstudien sehr deutlich reduziert. Darüber hinaus werde ich zeigen, dass diese Parameterschätzer auch zum Testen von Gen-Umwelt-Interaktionen verwendet werden können, wenn der Umweltfaktor binär ist.   Da davon ausgegangen wird, dass bei komplexen Krankheiten wie Krebs nicht einzelne SNPs, sondern Interaktionen mehrerer SNPs relevante Risikofaktoren sind, werde ich außerdem ein Verfahren namens trioFS (trio Feature Selection; Schwender et al., 2011) vorstellen, das auf einer Modifikation der logischen Regression für Fall-Eltern-Trio-Daten basiert (Li et al., 2010). Diese Methode ermöglicht die Identifizierung von potentiell interessanten SNPInteraktionen und die Quantifizierung der Wichtigkeit der gefundenen SNP-Interaktionen für das Krankheitsrisiko.

Tailoring componentwise likelihood-based boosting for SNP data

PD Dr. Harald Binder
Institut für Medizinische Biometrie und Medizinische Informatik, Universitätsklinikum Freiburg, Freiburger Zentrum für Datenanalyse und Modellbildung, Albert-Ludwigs-Universität Freiburg

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 s.t.
Datum:  1. Juli 2011

When linking a large number of single nucleotide polymorphisms (SNPs) to a phenotype, testbased techniques often consider each SNP separately. In contrast, regularized multivariable
regression techniques can incorporate all SNPs simultaneously. While the lasso is a prominent technique in this class, which can also select important SNPs, we consider componentwise
likelihood-based boosting as an alternative. The latter is available for continuous and binary phenotypes, as well as for time-to-event endpoints. We show that it can provide results similar to
the lasso when there is little linkage between the SNPs, using simulated time-to-event data. For strong linkage disequilibrium, the set of SNPs selected by the boosting approach is seen to be
more stable compared to the lasso. A second issue with regularization techniques is standardization of covariates. Without standardization, SNPs with large minor allele frequencies are
preferentially selected, which might not always be wanted. We propose a modified boosting approach to control preferential selection, without requiring artificial standardization of ordinal or
binary SNP covariates. The properties of componentwise likelihood-based boosting approach are illustrated using real SNP data with a time-to-event endpoint, where established clinical predictors
provide a performance reference. Specifically, the various strategies of tailoring componentwise boosting for SNP data are evaluated by prediction error curves to measure performance gains over
a purely clinical model.


PD Dr. Michael Nothnagel
Institut für Medizinische Informatik und Statistik Christian Albrechts Universität Kiel

Ort des Vortrages:  AM S2
Uhrzeit:  14.00 Uhr s.t.
Datum:  18. Mai 2011

Next-Generation-Sequencing (NGS) ist eine Schlüsseltechnologie für das Verständnis der Ursachen und Konsequenzen genetischer Variabilität beim Menschen. In diesem Kontext ist die Validität NGS-inferierter Single-Nucleotide Variants (SNVs) von großer Wichtigkeit. Wir haben daher einen statistischen Ansatz entwickelt, um die Genauigkeit von drei häufig genutzten NGS-Plattformen und ihren Anteil falsch-positiver Heterozygoten-Detektionen abzuschätzen, basierend auf der Read-Verteilung. Eine Anwendung dieses Ansatzes auf die alignten DNA-Sequenzdatan zweier vollständig sequenzierter HapMap-Proben des 1000-GenomeProjekts zeigte bemerkenswert verschiedene Fehlerprofile der drei Plattformen. Neu detektierte SNVs zeigten durchgängig höhere Falsch-positiv-Raten (3–17%) als bestätigte HapMap-Varianten. Dieser Anstieg konnte nicht durch Unterschiede in der flankierenden Sequenz, der Read-Abdeckung oder Mapping-Qualität erklärt werden. Anwendung auf andere Datensätze und unter Benutzung eines anderen SNV-Calling-Algorithmus zeigte ähnliche Ergebnisse. Konsens-Calling durch mehr als eine Plattform führte zu signifikant geringeren Fehlerraten (1–4%). Die Nutzung mehrerer NGS-Plattformen könnte daher ein kosteneffizienterer Weg als die Benutzung nur einer einzelnen Plattform sein, insbesondere in örtlich lokalisierten Sequenzierungsexperimenten, die kleine Fehlerraten erfordern. Unsere Studie zeigt auch, dass unterschiedliche NGS-Plattformen für unterschiedliche praktische Anwendungen geeignet sind.


Dr. Fiona Brew
Associate Director Market Development, EMEA Affymetrix UK Ltd

Ort des Vortrages:  AM S2
Uhrzeit:  14.00 Uhr s.t.
Datum:  20. April 2011

Affymetrix has recently developed a pipeline which enables biological validation of SNP's coming
from next generation sequencing, this is being used to create databases of validated SNP's, along
with the genotyping results from relevant samples in a number of species. The first of these
projects was to create a human database.
To do this Affymetrix screened millions of SNPs from public databases and putative novel SNPs.
The validated SNPs which resulted met the following criteria:
They have been reliably genotyped in the Axiom Genotyping Assay, meaning that they
have met or exceeded stringent performance metrics
They have been shown to be polymorphic in the given population(s) by demonstrating
reliable detection of the minor allele Currently the human database contains around 5.4 million
SNP's and simple indels, an imminent new release will increase this to close to 9 million markers
providing unrivaled access to SNP's in many biologically relevant categories. Researchers can use
this database to select SNP's for custom arrays which have relevance to the population being
studied, the disease being studied or particular biological categories to ensure the success of their
study. They can then use the Axiom platform to genotype up to 192 samples per day.
Affymetrix has also worked with the Kaiser Permenente Research program on Genes Environment
and Health and University of California, San Francisco; which is currently more than half way
through genotyping 100,000 individuals using the Axiom technology; to create a series of
catalogue arrays where the SNP's have been carefully selected to
1) include common and rare variants,
2) have very good coverage of SNPs found in the specific population the array was designed for
3)replicate and extend prior associations and provide strong genome-wide coverage for detecting
novel associations.
The first of these arrays which is now broadly available is the Axiom EUR array.
The same pipeline has now been used to validate bovine SNP's and create a catalogue array, Axiom
Genome -Wide BOS 1 Array and is currently being utilized for SNP's discovered in chickens.

Comparative Effectiveness Trials: Ein Paradigmenwechsel in der klinischen Forschung?

Prof. Dr. Karl Wegscheider
Institut für Medizinische Biometrie und Epidemiologie Universitätsklinikum Hamburg-Eppendorf

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  15. April 2011

Die klinische Prüfung ist in den meisten entwickelten Industrieländern notwendige Voraussetzung für die Zulassung eines Arzneimittels. Die anzuwendende Methodik wurde in Deutschland in den 60er Jahren gesetzlich vorgeschrieben. Goldstandard ist die randomisierte kontrollierte Studie (RCT). Gleichzeitig wurde das Phasenmodell definiert, das eine stufenweise Abklärung von Sicherheit und Wirksamkeit von der präklinischen Forschung bis zur sog. Phase-III-Studie vorsieht, in der die klinische Wirksamkeit bei breiter Anwendung in zahlreichen Zentren nachgewiesen werden soll. Die Verantwortung für die sachgerechte und methodisch korrekte Durchführung der klinischen Prüfung liegt laut Gesetz bei den Herstellern. Diese Verpflichtung endet mit der Zulassung. Die beschriebene Arzneimittelgesetzgebung war der Auslöser einer Lawine von klinischen Prüfungen und RCTs und beförderte die biometrische Methodenentwicklung. Die RCT erwies sich als Erfolgsmodell der klinischen Forschung. Methodik und Phasenmodell wurden und werden sinngemäß auf andere klinische Interventionen (z.B. medical devices) übertragen. Es gab und gibt allerdings weite Bereiche, an denen dieser Boom vorbeigegangen ist. Eine wesentliche Ursache liegt in der Begrenzung der Verpflichtung zur Durchführung von randomisierten Studien auf den Zeitpunkt der Zulassung. Zu diesem Zeitpunkt können zahlreiche Aspekte, die für den täglichen Umgang mit der Intervention wichtig sind, noch nicht ausreichend beurteilt werden. Dazu gehören die Anwendungssicherheit, seltene Nebenwirkungen und Arzneimittelinteraktionen, der optimale Einsatz der Therapie unter Routinebedingungen, die Langzeiteffekte, die Lebensqualität, die Patientenzufriedenheit, die Praktikabilität, das Abschneiden im direkten Vergleich mit gleich- und andersartigen Produkten für dieselbe Indikation und die Kosteneffizienz. Für diesen Zweck sind Phase-IV-Studien notwendig, die ein anderes Sponsorensystem/Funding, andere Designs, andere Zugangswege und andere Auswertungsmethoden erfordern. Im Streit um die Frage, ob diese Studien randomisiert oder nicht-randomisiert durchgeführt werden sollten, hat sich ein neuer Studientyp entwickelt, der sog. Comparative Effectiveness Trial. Im Vortrag wird herausgearbeitet, wie sich die Comparative Effectiveness Trials von klassischen Efficacy Trials unterscheiden und welche Impulse und Herausforderungen damit für die Biometrie verbunden sind. Am Beispiel der Akupunkturstudien wird praktisch vorgeführt, welche unterschiedlichen Schlussfolgerungen aus den beiden Studientypen gezogen werden können und wie sich diese zueinander verhalten. Es stellt sich heraus, dass die Bevorzugung der einen oder anderen Betrachtungsweise Wertentscheidungen beinhaltet, über die es zur Zeit noch keinen allgemeinen Konsens zu geben scheint.

Nonparametric Multiple Contrast Tests

Dr. Frank Konietschke
Department of Medical Statistics, University of Göttingen

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  4. Februar 2011

In practice, the assumption of normality of the data is often not fulfilled. Hence, there is a need for statistical procedures which can handle skewed distributions, as well as ordinal or categorical data.   In the literature, there are many nonparametric analysis of variance type procedures. But, the application of these procedures has disadvantages:

  1. The global hypothesis tested by analysis of variance (quadratic tests) is, in general, not the question of practitioners.
  2. When the global hypothesis is rejected, then multiple comparison procedures must be applied, but the results are often not consistent with the global test.
  3. Most nonparametric procedures cannot provide meaningful confidence intervals for the underlying effects. 

In this talk, we will present some results from my PhD thesis, trying to solve these problems. We will discuss some new so-called relative contrast effects, which can be interpreted as the underlying effects of a nonparametric multiple testing procedure. Almost surely consistent estimators and their multivariate distribution will be derived. We will present a new multiple testing approach and simultaneous confidence intervals for the effects.


Dr. Michael Stadler
Friedrich Miescher Institute for Biomedical Research, University of Basel

Ort des Vortrages:  AM S1
Uhrzeit:  11.00 Uhr s.t.
Datum:  28. Januar 2011

Over the last few years, ultra-high throughput sequencing has made it simple to generate gigabases of DNA sequence information. Compared to classical capillary sequencers, the "next-generation sequencers" from companies such as 454-Life-Sciences and Illumina produce data at a rate several orders of magnitude higher and at a drastically reduced cost. The technological approaches used lead to differences in amounts and qualities of obtained sequence data, for example in terms of read length, sequencing error rate and error types. For a given experiment it is therefore important to choose the right sequencer, as well as an appropriate data analysis work flow.   Most next-generation sequencers produce millions of short sequence reads (around 50 nucleotides in length), which limits their value for sequencing and assembly of unknown repeat-rich genomes. However, they are ideal for quantifying DNA or RNA molecules by counting. RNA-seq (quantification of transcripts) and ChIP-seq (quantification of antibody-enriched protein-bound genomic DNA) are two very popular examples of counting applications. We have developed a software framework that automates most steps in such an analysis and keeps track of multi-hit reads while assigning proper weights to each alignment.

Die Genomische Selektion in der Rinderzucht

Prof. Dr. Georg Thaller
Institut für Tierzucht und Tierhaltung, Christian-Albrechts-Universität Kiel

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  17. Dezember 2010

Die genomische Selektion hat in kürzester Zeit die Welt der Rinderzucht revolutioniert und wurde im August dieses Jahres offiziell in die Zuchtpraxis bei der Rasse Deutsche Holstein eingeführt. Ausgangspunkt war ein Forschungsprojekt deutscher Tierzuchtinstitute unter der Federführung des Instituts für Tierzucht und Tierhaltung der Christian-Albrechts-Universität zu Kiel. Die dramatischen Entwicklungen auf dem Gebiet der Molekulargenetik und die intensive Zusammenarbeit mit den Zuchtverbänden ermöglichten eine extrem schnelle Umsetzung dieses Verfahrens in die Zuchtpraxis. Die meisten wirtschaftlich bedeutenden Merkmale in den Nutztierpopulationen sind quantitativer Natur. Deren genetische Determination beruht auf vielen Genen mit jeweils kleinen Wirkungen. Fortschritte In der Milchrinderzucht basierten bislang auf Zuchtwerten, die mit Hilfe komplexer statistischer Verfahren vorwiegend über Nachkommenleistungen von Testtöchtern geschätzt wurden. Positiv selektierte Bullen können dann bis zu 100.000 Nachkommen erzeugen. Der Nachteil des konventionellen Verfahrens liegt in der begrenzten Testkapazität und der langen Zeitspanne, bis die Ergebnisse zur Verfügung stehen. Ansätze der Gen- oder QTL-Kartierung in der Vergangenheit waren nur bedingt erfolgreich, da nur Gene mit einer größeren Wirkung identifiziert werden konnten, die nur einen geringen Anteil der genetischen Varianz erklärten. Vollkommen neue Möglichkeiten eröffneten sich durch die Chiptechnologie mit der Tausende von SNP-Markern, welche über das ganze Genom verstreut sind, relativ kostengünstig bestimmt werden können. Die Kopplungsungleichgewichte zwischen diesen Markern und den kausalen Genvarianten in strukturierten Populationen erlauben eine indirekte Schätzung der Zuchtwerte. Im ersten Schritt werden einige Tausend Bullen beprobt, die repräsentativ für die zukünftige Rinderpopulation sind und für die konventionelle Zuchtwerte zur Verfügung stehen. Aus Sperma, Blut oder Haaren von Bullen wird die DNA isoliert und für 54.000 SNP-Marker, die Genotypen für jedes Tier bestimmt. Es ergibt sich ein tierindividuelles Muster aus 54.000 Genotypen. Der nächste Schritt ist die Schätzung der genomischen Zuchtwerte selbst. Komplizierte Rechenverfahren (genomisches BLUP, Bayes) wurden entwickelt, mit denen die Wirkung der Marker auf die Zuchtwerte geschätzt werden können. Das Hauptproblem liegt in der Überdimensionierung der erklärenden Variablen relativ zu den beobachteten Zuchtwerten. Im übertragenen Sinne wird ein Katalog erstellt, in dem für alle 54.000 Marker die Effekte für die verschiedenen Merkmale gelistet sind. Diese können nun zur Bestimmung genomischer Zuchtwerte von Tieren verwendet werden, von denen noch keine Informationen über die Eigen- bzw. Verwandtenleistung vorliegt. Die Vorgehensweise der Schätzung von genomischen Zuchtwerten von Selektionskandidaten lässt sich wiederum vereinfacht wie folgt erläutern. Mit Hilfe der oben beschriebenen Genotypisierungsverfahren wird das Muster der Marker für ein solches Tier bestimmt. Im ‚Katalog’ der Schätzwerte wird für jeden Marker nachgesehen, welchen Effekt er auf das Tier hat und schließlich werden alle Effekte zusammengezählt, um den genomischen Zuchtwert dieses Tieres zu erhalten. Jungbullen können nun früher selektiert und eingesetzt werden, die Kosten der Bullenprüfung sinken und der Zuchtfortschritt wird deutlich erhöht.


Prof. Dr. Lothar Kreienbrock
Institut für Medizinische Biometrie, Epidemiologie und Informationsverarbeitung WHO-Collaborating Centre for Research and Training in Veterinary Public Health Tierärztliche Hochschule Hannover

Ort des Vortrages:  AM S1
Uhrzeit:  11.00 Uhr s.t.
Datum:  26. November 2010

Die Epidemiologie in der Veterinärmedizin beschäftigt sich mit der Untersuchung der Verteilung von Krankheiten, physiologischen Variablen, Krankheitsfolgen, Leistungsparametern und ökonomischen Faktoren in Tierpopulationen und -beständen sowie mit den Faktoren, die diese Verteilung beeinflussen. Dazu gehören die Untersuchung der Krankheitsentwicklung in Populationen, Modellentwicklungen im Rahmen der präventiven Veterinärmedizin, die Erarbeitung verfeinerter Optimierungsstrategien im Tiergesundheitswesen, aber auch die Durchführung von Systemanalysen in der Lebensmittelhygiene und damit die Entwicklung von Grundlagen für die Entscheidung über Maßnahmen zur Minimierung des Gesundheitsrisikos im Rahmen des Verbraucherschutzes. Daher besitzt die Epidemiologie innerhalb der Tiermedizin einen starken Bezug zu "Veterinary Public Health", welches sich mit der Beziehung zwischen der menschlichen Gesundheit einerseits sowie Lebensmitteln und Tieren andererseits auseinandersetzt.   "Veterinary Public Health (VPH) is the contribution to the complete physical, mental, and social well-being of humans through an understanding and application of veterinary medical science." (WHO; 1999).   Zwischen menschlicher Gesundheit, Tierhaltung und Tiergesundheit bestehen komplexe Zusammenhänge, so dass die Methoden der Biometrie, Epidemiologie und veterinärmedizinischen Informatik hier vielfältig zum Einsatz kommen.   Im Rahmen des Vortrags werden einige Beispiele dieser methodischen Anwendungen vorgestellt.


Manuel J. A. Eugster (Dipl.-Ing.)
Department of Statistics, LMU München, München

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  19. November 2010

Benchmark experiments draw B independent and identically distributed learning samples from a data generating process to estimate the (empirical) performance distribution of learning algorithms. Formal inference procedures are used to compare these performance distributions and to investigate hypotheses of interests. In most benchmark experiments B is a "freely chosen" number, often specified depending on the algorithms' runtime to setup experiments which finish in reasonable time. In this presentation we discuss how to control B and remove its "arbitrary" aftertaste.   General sequential designs enable, amongst other things, to control the the number of trials, i.e., B. A benchmark experiment can be seen as a sequential experiment as each run, i.e., drawing a learning sample and estimating the candidates' performances, is done one by one. Currently, no benefit is taken from this sequential procedure: The experiment is considered as a fixed-sample experiment with B observations and the hypothesis of interest is tested using a test T at the end of all B runs. We propose to take the sequential nature of benchmark experiments into account and to execute a test T successively on the accumulating data. In a first step, this enables  to monitor the benchmark experiment -- to observe p-value and test statistic of the test during the execution of the benchmark experiment. In a second step, this information can be used to make a decision -- to stop or to go on with the benchmark experiment. We present methods, group sequential and adaptive, and discuss the advantage obtained by sequential benchmark experiments.


Dr. Jochem König
Institut für Medizinische Biometrie, Epidemiologie und Informatik, Mainz

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  29. Oktober 2010

Ausgangspunkt der Betrachtung ist eine originaldatenbasierte Metaanalyse zur Assoziation zwischen Gebärmutterhalskrebs und seinen Vorformen einerseits und dem PRO72ARG-Polymorphismus des TP53-Gens. Der initiale Analyseansatz - separate Modellierung verschiedener Fall-Definitionen (invasiver Krebs, HSIL, LSIL) jeweils mit binärem logistischen Modell – wird einem Ansatz umfassender Modellierung gegenübergestellt. Dazu werden die Rollen von Zielgröße und Einflussgröße getauscht, der Polymorphismus ist nun die Zielgröße und die verschiedenen Neoplasie-Formen gelten als kategoriale Einflussgröße. Da nicht jede Studie alle Neoplasieformen zum Gegenstand hatte, entsteht ein Design ähnlich dem der Netzwerk-Metaanalyse. Die Frage nach dem Effizienzgewinn durch die umfassende Modellierung wird diskutiert. Darüber hinaus wird untersucht, ob der Umstand der Unbalanciertheit, welcher bei der Metaanalyse randomisierter Studien eher die Ausnahme ist, hier eine Verzerrung der Effektschätzer hervorrufen kann. Der Effizienzgewinn stellt sich als gering heraus; die Gründe werden untersucht und erweisen sich als nicht untypisch für Netzwerkmetaanalysen. Eine Verzerrung ist theoretisch nicht ausgeschlossen, erweist sich aber in der betrachteten Konstellation als vernachlässigbar.


Dr. Nele Friedrich
Institut für Klinische Chemie und Laboratoriumsmedizin, Universitätsklinikum Greifswald

Ort des Vortrages:  AM S1
Uhrzeit:  11.00 Uhr s.t.
Datum:  27. Oktober 2010

Ein gebräuchliches Maß zur Abschätzung der Diskriminationsfähigkeit eines statistischen Modells ist die Area under the Receiver Operating Characteristic (ROC) Curve (AUC), welche häufig im Zusammenhang mit logistischen Regressionsmodellen verwendet wird. Eine Weiterentwicklung der AUC stellt der Overall Discrimination Index (Overall C) dar, welcher zur Beurteilung der Diskriminationsfähigkeit für Überlebenszeitmodelle genutzt werden kann. Neben der Einführung des Overall C’s wird sich der Vortrag mit Parametern zur Beurteilung der zusätzlichen Vorhersagefähigkeit eines weiteren Prädiktors in Regressionsmodelle beschäftigen. Häufig führen zusätzliche Prädiktoren wie auch anerkannte Risikofaktoren zu keinem deutlichen Anstieg in der Diskriminationsfähigkeit, daher ist die Beurteilung der Anpassungsgüte eines Modells nur anhand der Diskriminationsfähigkeit unzureichend. Neuere Methoden wie die Net Reclassification Improvement (NRI) und Intergrated Discrimination Improvement (IDI) stellen nützliche Alternativen zur AUC und zum Overall C dar.


Bernd Bischl (M.Sc.)
Chair of Computational Statistics, TU Dortmund

Ort des Vortrages:  AM S1
Uhrzeit:  Freitag, den 22.10.2010, 10.00 Uhr s.t.
Datum:  22. Oktober 2010

Local approaches to classification are widely used. Well-known examples are the k nearest neighbors method and Cart. In recent years many more local classification methods have been developed. Among these are, for example, localized versions of standard classification techniques like linear discriminant analysis and Fisher discriminant analysis, logistic regression as well as boosting. Here, two questions arise: How can local classification methods be characterized and when are they especially appropriate? In the relevant literature the term `local' is often only vaguely defined as relating to the position in some space, to a part of a whole or to something that is not general or widespread. Often, it lacks an exact explanation of its particular meaning. We present steps towards a framework for a unified description of local methods and show that different types of local approaches can be distinguished. Moreover, it is not clear which properties local methods have and for which types of classification problems they may be beneficial. Generally, localized classification methods exhibit more flexibility than their global counterparts. Therefore they are expected to give good results in case of irregular class boundaries. A special situation, which is addressed by many local methods, is multimodality of class distributions. To our knowledge there are very few extensive studies in literature that com-pare several types of local methods across many data sets. In order to assess their performance we conduct a benchmark study on real-world and synthetic data. Different types of local methods are compared to global methods. We try to identify subgroups of similar algorithms and set these subgroups into relation to our theoretical intuitions about them. Also we will try to give general guidelines in what situation which method will probably lead to good results.

Adaptiv-sequentielle Studien mit adäquater Berücksichtigung von Interimspatienten

Dr. Andreas Faldum
Institut für Medizinische Biometrie, Epidemiologie und Informatik, Mainz

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  2. Juli 2010

Gruppensequentielle und adaptive Designs erlauben es während einer klinischen Studie Zwischenanalysen durchzuführen ohne die Integrität der Studie zu gefährden. Aus den Ergebnissen dieser Zwischenanalysen können dann Entscheidungen für den weiteren Studienverlauf hergeleitet werden. Während neuere biometrische Verfahren eine immer größere Flexibilität bei der Adaption von Studien nach Zwischenanalysen zulassen, werden solche Studiendesigns insbesondere in Zulassungsstudien nur zögerlich eingesetzt. Ein Grund dafür sind Interimspatienten, die während der Dauer einer Zwischenanalyse in eine laufende Studie aufgenommen werden, da sich die Rekrutierung aus logistischen Gründen kaum stoppen lässt. Zeigt die Studie in der Zwischenanalyse den gewünschten Erfolg, so wird sie üblicherweise beendet. Die Interimspatienten wurden dann aber noch nicht berücksichtigt. Aus Gründen der Studieneffizienz sowie aus ethischen Gründen müssen alle verfügbaren Informationen Verwendung finden, um zu einer gesicherten Studienaussage zu kommen. Zudem wird jede Zulassungsbehörde die bis dato unberücksichtigten Daten der Interimspatienten einfordern. Standardverfahren ist die doppelte Auswertung ohne und dann mit den Interimspatienten. Der eben erreichte Erfolg steht folglich wieder auf dem Spiel. Im Rahmen dieses Vortrags werden adaptive Studiendesigns vorgestellt, die einerseits alle auswertbaren Patienten bei der konfirmatorischen Analyse berücksichtigen, andererseits den Nachteil der Doppelanalyse kompensieren. Die Strategien zur adäquaten Berücksichtigung von Interimspatienten werden anhand prospektiver randomisierter Multicenterstudien veranschaulicht. Die Berücksichtigung von Interimspatienten ist immer dann besonders wichtig, wenn zwischen der Rekrutierung eines Patienten und der Erhebung seines Studienzielwertes längere Zeit vergeht. Durch Wahl einer geeigneten Strategie lassen sich Powerverluste minimieren bzw. durch Einsparungen bei der durchschnittlichen und maximalen Fallzahl ausgleichen.

Adaption of an Empirical Bayes approach to investigate gene-environment interactions in large consortia

Dr. Rebecca Hein
Deutsches Krebsforschungszentrum, Heidelberg

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr s.t.
Datum:  4. Juni 2010

The case-only approach is more powerful to detect gene-environment interactions (GxE) than the case-control approach if the assumption of gene-environment (G-E) independence is valid. Specifically, this assumption may be violated in presence of population stratification. The empirical-Bayes (EB) procedure tests for interaction and exploits the G-E independence assumption but does not rely on this assumption (Mukherjee and Chatterjee, Biometrics, 2008, 64(3):685-94). Therefore, the EB method can have increased power compared to the case-control approach while the type I error is smaller than that of the case-only approach if the independence assumption is violated (Mukherjee et al., 2008).

The Breast Cancer Association Consortium (BCAC) is an international multidisciplinary consortium. Investigators combine data on genetic and environmental/life-style factors of their individual studies, aiming to increase the power for identifying genes that may be related to the risk of breast cancer. Besides the analyses of genetic main effects, GxE analyses involving known environmental risk factors are employed to detect new susceptibility genes. BCAC involves population-based (pb) studies (providing control samples that are considered to be representative for the population from which the cases were drawn) as well as non-population-based (npb) studies with non- representative controls. For the analysis of genetic main effects it is supposed that reliable estimates can be obtained when combining the results of pb as well as npb studies in a meta-analysis, since it is assumed that minor allele frequencies in the control samples of the npb studies and those in the population from which the cases of the npb studies were drawn are similar. However, for the computation of GxE effect estimates this assumption may not be valid, since unrepresentative control samples may distort the estimates of environmental main and GxE effects. To cope with this problem one may (1) conduct case-control analyses using pb studies only, which, however, results in a decrease in sample size or (2) perform case-only analyses, which may yield false positive results due to possible G-E dependence. Alternatively, one may use an adapted EB approach that makes use of all available samples while aiming to maintain the pre-specified significance level. Simulations to estimate type I error and power of the different approaches are ongoing. Results will be presented.

Meta-analytic methods for diagnostic tests

Dr. Jörg Kaufmann
Independent Statistical Consultant, Berlin

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr
Datum:  30. April 2010

Systematic reviews of diagnostic test are undertaken for the same reason as systematic reviews of therapeutic inventions: to produce estimates of performance based on all available evidence, to evaluate the quality of published studies, and so account for the variation in findings between studies.

Studies of test performance or accuracy compare test results between separate groups of patients with and without the target disease, each of whom undergoes the experimental test as well as a second “Gold Standard” reference test. The relationship between the test results and the disease status is described using probabilistic measures, such as sensitivity, specificity, accuracy and likelihood ratios. The choice of a statistical method for pooling study results depends on the source of heterogeneity, especially variation in diagnostic thresholds. Sensitivity, specificity, accuracy and likelihood ratios may be combined directly if the results are reasonable homogeneous. When a threshold effect exists, study results may be best summarised as a summary receiver operating characteristic ROC curve. Such a curve can prove difficult to interpret and apply in practice.

Next Gen sequencing technologies and bioinformatic analysis tools: case studies

Dr. Manuela Hinz
GATC Biotech AG, Konstanz

Ort des Vortrages:  AM S1
Uhrzeit:  10.00 Uhr
Datum:  19. Februar 2010

Projects performed by GATC show that the use of one next generation sequencing technology alone does not deliver the best results for all projects. Rather a combination of two or three technologies provides a more complete, cost-effective analysis. In addition to sequencing, bioinformatic analysis is critically important for gaining an in-depth understanding of the biological significance of the sequence data. The combination, analysis and visualisation of these data are key challenges to the successful application of the Next Generation sequencing technologies.

Dimensionality Reduction using Backward Peeling in Random Jungle

Kristin K. Nicodemus, PhD, MPH
University of Oxford

Ort des Vortrages:  AM S2
Uhrzeit:  12.00 Uhr
Datum:  1. Dezember 2009

Given the rapidly-expanding size of genome-wide association data, dimensionality reduction (DR) is increasingly important for interpretability of machine learning results. DR creates computationally more tractable models, allows for the best use of resources for follow-up studies, may increase prediction accuracy by removing noise predictors, and can remove redundant predictors. Random Jungle (RJ; Schwarz et al., in press), a computationally efficient implementation of the random forest algorithm, provides options for a backward 'peeling' approach to DR: users specify a target number of predictors to be retained in the final set (p*) and at each iteration the algorithm peels off 50%, 33%, or all predictors with negative variable importance measures until the final set is < p*. However, how should p* be selected when it is not known a priori? I show the use of the out-of-bag error rates during peeling to select p* is strongly influenced by the “large p small n” problem. In other words, when the number of predictors is much larger than the number of observations (as is common in genome-wide association studies) it may lead to an improper estimate of p*. Further, the peeling approach may inflate some of the resulting variable importance measures, and this inflation is also more pronounced when the number of predictors is larger than the number of observations. I propose appropriate solutions to these issues when the number of predictors is much greater than the number of observations including cross-validation for the estimation of p* and the use of independent test sets for estimation of variable importances and prediction error.

Was ist Bio-Information? Überlegungen zur genetischen Hermeneutik im Hinblick auf prognostische Gentests

Prof. Dr. Christoph Rehmann-Sutter
Institut für Medizingeschichte und Wissenschaftsforschung, Universität zu Lübeck

Ort des Vortrages: AM S1
Uhrzeit:  11.00 Uhr
Datum:  20. November 2009

Im gesellschaftlichen und kulturellen Kontext ist die medizinische und biologische Genetik mehr als nur eine Naturwissenschaft. Sie enthält mehr, nämlich eine praktische Anthropologie. Das wirft die Frage nach dem Wesen genetischer Information neu auf. Was kann genetische Information bedeuten, wenn man davon ausgeht, dass das Genom nicht im Sinn eines "Programms" für den Menschen funktioniert?

Kleine RNAs mit großer Wirkung – microRNAs

Dr. Tanja Zeller
Universitätsmedizin Mainz

Ort des Vortrages:  AM S 1
Uhrzeit:  9.00 Uhr
Datum:  22. August 2009

Neben den seit Jahren bekannten regulatorischen Faktoren, welche die Information der gnomischen DNA über die mRNA in Proteine umwandeln, tritt eine Klasse von RNAs immer mehr in den Vordergrund. microRNAs (miRNA) sind kleine, nicht-kodierende RNAs, welche die Genexpression auf post-transkriptionalem Level regulieren und damit die zellulären Funktionen beeinflussen können (so genannte funktionelle RNAs). Für eine Vielzahl an zellulären Prozessen (z.B. Entwicklungsprozesse) aber auch für verschiedene Krankheiten (z.B. Krebserkrankungen, Diabetes mellitus) konnte gezeigt werden, dass miRNAs eine große Rolle spielen.

MB-MDR based screening strategies to detect high-order genetic interactions

Prof. Dr. Kristel van Steen
Universität Lüttich, Belgien

Ort des Vortrages:  H1 (Turmgebäude)
Uhrzeit:  10.00 Uhr
Datum:  9. Februar 2009

In the search for genetic high-order interactions parametric approaches have severe limitations when there are too many independent variables in relation to the number of observed outcome events. The Multifactor Dimensionality Reduction method, MDR (Ritchie et al. 2001) has achieved a great popularity in case-control genetic association screening. It tackles the dimensionality problem of interaction detection by reducing the dimension to one, after pooling multi-locus genotypes into two groups of risk: high and low. Martin et al. (2003) combined the MDR method with the genotype-Pedigree Disequilibrium Test (MDR-PDT) to allow identification of single-locus effects or joint effects of multiple loci in nuclear families.

When analyzing gene-gene interactions, adjustment for confounding variables and for main effects is usually required and parametric methods might be more flexible. We propose a novel multifactor dimensionality reduction screening strategy for genetic interaction association analysis that encompasses both family-based and population-based designs. It has its foundation in the flexible Model-Based Multifactor Dimensionality Reduction Method, MB-MDR, of Calle et al. (2008). The approach is validated via simulation studies and evaluated on a real-life dataset.

Der Zuchtwert oder: was ist ein Tier für die Zucht wert?

Prof. Dr. Henner Simianer
Institut für Tierzucht und Haustiergenetik, Georg-August-Universität Göttingen

Ort des Vortrages:  AM S 1
Uhrzeit:  11.30 Uhr
Datum:  9. Januar 2009

Zunächst werden die grundlegenden Ziele der Tierzucht erläutert, die im Wesentlichen in der genetischen Anpassung von Nutztierpopulationen an die an sie gestellten Ansprüche bestehen. Ein wesentliches Werkzeug der Tierzüchtung ist die Zuchtwertschätzung. Deren Aufgabe ist die möglichst frühe und genaue Abschätzung des additiv-genetischen Werts eines Tieres zum Zweck der Selektion. Es werden verschiedene Ansätze der Zuchtwertschätzung besprochen: (a) die BLUP-Zuchtwertschätzung auf Grundlage von Leistungsdaten und Verwandtschaften, (b) die markergestützte Zuchtwertschätzung unter Einbeziehung kartierter QTLs, und (c) die genomische Zuchtwertschätzung auf der Basis genomweiter SNP Typisierungen. Abschließend wird das Konzept der ‚genomischen Selektion’ erläutert, dessen Einführung in naher Zukunft die Tierzucht substanziell verändern wird.

A Multvariate Dunett Procedure for Correlated Endpoints

Dipl.-Math. Mario Hasler
Institut für Biostatistik, Leibniz Universität Hannover

Ort des Vortrages:  S IMBS (Haus 32, Raum 9)
Uhrzeit:  11.00 Uhr
Datum:  4. Juli 2008

This talk considers a single step procedure for simultaneous comparisons to control by ratios of means when there is more than one primary endpoint of interest. An approximate multivariate t-distribution is used to obtain quantiles for test decisions and simultaneous confidence intervals. Simulation results show that this approach asymptotically controls the familywise error rate in the strong sense.

Verbesserungen von multiplen Testverfahren unter Berücksichtigung der Anzahl der wahren Hypothesen

Dipl.-Math. Claudia Hemmelmann
Institut für Medizinische Statistik, Informatik und Dokumentation Klinikum der Friedrich-Schiller-Universität Jena

Ort des Vortrages:  S IMBS
Uhrzeit:  15.00 Uhr
Datum:  18. Juni 2008

Heutzutage handelt es sich bei vielen klinischen Fragestellungen um multiple Testprobleme, d. h. es sollen gleichzeitig mehrere Hypothesen getestet werden. Würde jeder der interessierenden Vergleiche auf dem Niveau a durchgeführt werden, muss mit vielen falsch positiven Ergebnissen, d. h. Fehlern 1. Art, gerechnet werden. Um die Anzahl V der Fehler 1. Art zu begrenzen, existieren einige verschiedene Fehlerkriterien. Unsere Untersuchungen beschränken sich jedoch auf multiple Testverfahren, die entweder die verallgemeinerte familienbezogene Irrtumswahrscheinlichkeit (engl.: generalized family-wise error rate, gFWE) oder die (Überschreitungs-)Wahrscheinlichkeit des Anteils der falschen Entdeckungen (engl.: tail probability of the proportion of false positives oder false discovery proportion, FDP) kontrollieren. Bei der gFWE wird P(V > u) £ a mit u ³ 0 gefordert und bei der FDP P(V/R > g) £ a für ein g (0 £ g < 1), wobei R die Anzahl der insgesamt abgelehnten Hypothesen ist. Für diese Fehlerkriterien existieren wiederum einige Testverfahren, jedoch sind diese in vielen Situationen nicht sehr sensitiv, d. h. sie habe eine geringe Güte.

Im Vortrag werden Verbesserungen dieser Verfahren vorgestellt, welche darauf beruhen, dass bei hochdimensionalen Daten häufig nicht alle Hypothesen wahr sind. Ist die Anzahl der wahren Hypothesen oder zumindest eine obere Schranke dieser Anzahl bekannt, dann können die meisten multiplen Testverfahren durch Ausnutzen dieser Kenntnis modifiziert werden. Die Höhe des möglichen Gütegewinns gegenüber den Originalverfahren wird anhand einer Simulationsstudie demonstriert. Erwartungsgemäß ist der Gütegewinn umso größer, je weniger die Anzahl der wahren Hypothesen überschätzt wird und je weniger Hypothesen wahr sind. Des Weiteren wird der Nutzen der verbesserten Testverfahren anhand von EEG-Daten dargestellt.

Erna Weber & Maria Pia Geppert: zwei Pionierinnen auf dem Gebiet der Biomathematik

Sabine Brühne
Interdisziplinäres Zentrum für Wissenschafts- und Technikforschung, Bergische Universität Wuppertal

Ort des Vortrages:  R1
Uhrzeit:  10.00 Uhr
Datum:  16. Juni 2008

Maria Pia Geppert und Erna Weber gehörten zu den ersten Frauen im damaligen Deutschen Reich und in den Nachfolgestaaten in Ost und West, denen eine wissenschaftliche Karriere in der Mathematik (Statistik) gelang. Beide Frauen arbeiteten auf dem Gebiet der Biometrie und begannen ihre wissenschaftliche Laufbahn in den 1930er Jahren. Erna Weber arbeitete in Institutionen, die während des Nationalsozialismus auf "Rassen"forschung ausgerichtet waren (Kaiser Wilhelm Institut für Anthropologie, menschliche Erblehre und Eugenik (KWIA), Thüringisches Landesamt für Rassewesen in Jena, Lehrauftrag für Biologische Statistik am auf rassenhygienische und rassenkundliche Forschung orientierten Universitätsinstitut für menschliche Erblehre in Jena) und arbeitete darüber hinaus mit einem exponierten "Rassen"theoretiker im NS, Karl Astel, zusammen.

Maria Pia Gepperts primäre Wirkungsstätte bis 1964, das 1931 gegründete Kerckhoff Institut in Bad Nauheim, war auf die Erforschung, Diagnostik und Therapie von Herz und Kreislauferkrankungen ausgerichtet, ihr Beitrag zur NS Erbforschung beschränkt sich vermutlich auf das Korrekturlesen eines einschlägigen Buches zur "Erbmathematik", das ihr Bruder, Harald Geppert, gemeinsam mit ihrem Vorgänger als Leiter der Statistischen Abteilung des Kerckhoff Institutes, Siegfried Koller, verfasst hat.

Nach 1945 setzten sie ihre Karriere (fast) nahtlos fort, Erna Weber in der DDR, Maria Pia Geppert in der BRD. Sie waren in beiden deutschen Staaten durch ihre wissenschaftlichen Arbeiten und ihre Lehrtätigkeit an der Entwicklung und Etablierung der Biometrie als wissenschaftliche Disziplin an den Universitäten und anderen Institutionen und am (Mit)Aufbau der Deutschen Region der Internationalen Biometrischen Gesellschaft und der (Mit)Begründung und Herausgabe der Biometrischen Zeitschrift beteiligt. Beide vermittelten die Notwendigkeit, statistische Methoden in die Forschung verschiedener Gebiete wie Medizin, Biologie, Agronomie usw. mit einzubeziehen. Dass Forschung nicht nur in der Biometrie immer an den jeweiligen gesellschaftspolitischen Kontext und die Vorgaben der Auftraggeber gebunden ist, zeigt auch die wissenschaftliche Integration Maria Pia Gepperts und insbesondere Erna Webers in unterschiedliche politische Systeme nach 1945.

Der Vortrag gibt einen Überblick über die biographischen Daten Maria Pia Gepperts und Erna Webers sowie ihr wissenschaftliches und wissenschaftsorganisatorisches Wirken.

Randomisierte p-Werte zum Testen des Hardy-Weinberg-Gleichgewichts und ihre Anwendung in ...

Dr. Klaus Straßburger
Institut für Biometrie und Epidemiologie, DDZ Düsseldorf

Ort des Vortrages:  R1
Uhrzeit:  16.00 Uhr
Datum:  12. Juni 2008

Ausgehend von den SNP Daten des KORA 500K Projektes wird der Zusammenhang zwischen der (per SNP) Call-Rate (CR) und Verletzungen des Hardy-Weinberg-Gleichgewichts (HWE) untersucht. Als statistische Werkzeuge kommen hierbei (realisierte randomisierte) p-Werte zum Testen des HWEs, die False Discovery Rate (FDR) und Schätzer für die Anzahl falscher Hypothesen (HWE Verletzungen) zum Einsatz. Mit Hilfe einer nach Call-Rate Klassen stratifizierten Analyse der HWE p-Werte wird gezeigt, dass der Anteil der SNPs, die sich nicht im HWE befinden, linear mit fallender Call-Rate ansteigt. Hierbei sind SNPs mit vollständiger Genotypinformation (CR=100%) annähernd perfekt im HWE. Dies kann so gedeutet werden, dass in der untersuchten KORA Population Verletzungen des HWEs auf Genotypisierungsfehler und nicht auf andere, das HWE beeinflussende Faktoren, wie beispielsweise Selektion oder Populationsstratifikation, zurückzuführen sind. Darüber hinaus zeigt die Analyse, dass die Verwendung eines einzelnen Schwellenwertes für HWE p-Werte als Kriterium zur Beurteilung der Genotypisierungsqualität ungeeignet ist und stattdessen verschiedene von der Call-Rate abhängige Schwellenwerte verwendet werden sollten.

Beratung in der Planungsphase

Dr. Reinhard Vonthein
Institut für Biometrie, Universitätsklinikum Tübingen

Ort des Vortrages:  R1
Uhrzeit:  16.00 Uhr
Datum:  29. Mai 2008

Wenn die Auswertung eines Forschungsvorhabens erst geplant wird, wenn die Daten bereits vorliegen, kann manchmal nur noch festgestellt werden, dass die ursprüngliche Frage mit den Daten nicht beantwortet werden kann.

Diesem seit langem bekannten Sachverhalt wirken verschiedene Akteure und Anreizsysteme entgegen, und auch der Biometriker im Team kann seinen Teil beitragen. Solches Biometriker-Know-How wird in diesem Vortrag zusammengetragen und so geordnet, dass daraus umsetzbare erfolgversprechende Handlungen abgeleitet werden. Nach dem Überblick über die einschlägigen Richtlinien für Laborversuche, Tierversuche und klinische Studienwerden die Ansatzpunkte benannt.

In einem zweiten Teil wird der Umfang der Zusammenarbeit bei den verschiedenen Arten von Projekten skizziert. Die Fallzahlplanung erschöpft sich ja nicht in der Angabe einer einzelnen Zahl, sondern erfordert auch Vorgaben für alle Bereiche der praktischen Durchführung des Experiments. Insbesondere Maßnahmen gegen fehlende Werte und das Vorgehen, wenn sie dennoch auftreten, sollte man frühzeitig schriftlich niederlegen. Welche Rechnungen aber auch Vorschriften für das Datenmanagement das sein können, wird an einigen Beispielen erläutert.

Den Abschluss bilden einige Überlegungen, wie die beschriebene Beratung in der Planungsphase honoriert werden kann.

Strategies for Marker Ranking in Genomewide Association Studies of Complex Traits

André Scherag
Institut für Medizinische Informatik, Biometrie und Epidemiologie, Universitätsklinikum Essen

Ort des Vortrages:  R1
Uhrzeit:  11.00 Uhr
Datum:  23. Mai 2008

Advances in high-throughput genotyping technology lead to the realization of genome wide association (GWA) studies which helped identify new susceptibility loci of complex traits. Such studies usually start with genotyping fixed arrays of single nucleotide polymorphisms (SNPs) in an initial sample. Out of these lists of markers are compiled which will be further genotyped in independent samples. Due to the very low a priori probability of a true positive association, the fast majority of marker signals will turn out to be false positive.

As shown by Frayling (2007) for type II diabetes mellitus, some of the true associations will not be among those with the smallest p-values. Consequently alternative methods to sort single SNP data have been proposed such as the “q-value” (Storey and Tibshirani, 2003; Storey et al. 2004), the “false positive report probability” (FPRP; Wacholder et al., 2004), and the “Bayesian false-discovery probability” (BFDP; Wakefield, 2007, 2008).

In this talk I will briefly review these methods and will compare them using data from a GWA scan for the phenotype “early onset extreme obesity” (Hinney et al., 2007).

Finding Disease Associated SNP; A Knowledge Discovery approach

Dr. Christoph M. Friedrich
Fraunhofer Institut Algorithmen und Wissenschaftliches Rechnen, St. Augustin

Ort des Vortrages: Seminarraum des Instituts für Medizinische Biometrie und Statistik (Haus 32, Raum 9) Uhrzeit:  14.00 Uhr
Datum:  19. Mai 2008

Genomweite Assoziationsstudien ermöglichen das Auffinden krankheitsspezifischer Gene und deren Variationen. Die schiere Datenmenge und die damit verbundenen statistischen Notwendigkeiten wie die Korrektur multiplen Testens sind einige der Probleme, die diese Aufgaben erschweren. Der folgende Vortrag fasst die Arbeiten des Fraunhofer Instituts für Algorithmen und wissenschaftliches Rechnens (SCAI) im Rahmen des europäischen Projektes @neurIST zusammen. Dabei wird unser Knowledge Discovery Ansatz zum Auffinden von krankheitsspezifischen Genen und Varianten in wissenschaftlichen Texten und Datenbanken vorgestellt. Hierbei spielen maschinelle Lernverfahren wie Conditional Random Fields eine grosse Rolle. Weiterhin möchte ich unsere Pläne zum auffinden komplexer, interagierender SNP Assoziationen mit Hilfe von Support Vector Maschinen zur Diskussion stellen.

Haplotype sharing methods : solved and open questions

Prof. Dr. Gerard te Meerman
Gronigen Bioinformatics Centre, Niederlande

Ort des Vortrages:  R1
Uhrzeit:  10:00 Uhr
Datum:  1. Juni 2007

Haplotype sharing uses two sources of information about identity between two subjects in contrast to association. In association an identical SNP allele indicates a common founder for that allele, because the mutation frequency is low enough to ignore the possibility of two identical separate mutations to the same allele. Haplotypes can be identical by state and identical by descent. Identity by descent means that there is a common founder for a haplotype and that there have not been recombinations and mutations for all subsequent markers on a haplotype. If two haplotypes share many markers, a recent common founder is likely. Even with current high density snp marker sets from Illumina or Affymetrix most snp's will not be observed and genetic effects of most snp's will be observed indirectly. The number of different haplotypes observed surrounding an snp allel is much lower than would be expected if there was free recombination. This is caused by non-recombination since the haplotype was present in a common founder. The presence of unobserved disease alleles can be inferred from qualitatively different haplotypes and from length differences. The latter is especially important if disease mutations are young relative to the non-disease associated variant or when the disease allele is rarer and has less independent introductions in a population. A major problem is whether the information derived from haplotypes is really useful given the extra noise added by haplotype inference and given the extra effort of typing a father-mother-child trio with one affected individual. Current whole genome screens have been designed as case-control studies. However results are mixed and haplotype sharing tests need to be applied in order to see if they contribute to finding reliable genetic signals.

Complex Traits and Quantitative Endophenotypes: Model-free Linkage Approaches

Dr. Saurabh Ghosh
Indian Statistical Institute, Kalkutta, Indien

Ort des Vortrages:  R3
Uhrzeit:  10:00 Uhr
Datum:  10. April 2007

Most complex disorders have binary end-points defined by the affectation status of an individual. However, these clinical end-point traits are typically determined on the basis of values of a set of heritable quantitative characters. These precursor variables are continuous in nature and contain more information on inter-individual variablity than binary clinical end-points. Thus, it has been argued that analyzing quantitative precursors, including mapping genes controlling them, may be statistically a more powerful strategy for deciphering the architecture of a complex disease.

We (Ghosh and Majumder 2000) proposed a non-parametric regression method for linkage based on kernel smoothing using independent sib-pairs which estimates the empirical local relationship of the underlying variables. In this talk, we discuss some modifications of this method to incorporate more phenotypic information and sibship data and show that it is more powerful than the Haseman-Elston class of linear regression.

However, a single quantitative trait is ideally not a good surrogate for a binary clinical end-point. Thus, it may be more meaningful to use a correlated multivariate phenotype for identifying genes for a complex trait. In this talk, we propose, along the lines of Sham et al. (2002), a linear regression formulation in which the traditional response variable, that is, some function of the multivariate phenotype and the explanatory variable, that is, the genetic similarity between sib-pairs are interchanged.

Applications of the proposed non-parametric method as well as the multivariate phenotype approach are illustrated using data on alcoholism related phenotypes from the Collaborative Study On the Genetics Of Alcoholism project.

Asymptotisches Verhalten der False Discovery Rate in multiplen Testverfahren unter Abhängigkeit

Dipl.-Math. (FH) Thorsten Dickhaus
Deutsches Diabetes-Zentrum, Düsseldorf

Ort des Vortrages:  H2
Uhrzeit:  10.00 Uhr
Datum:  26. Januar 2007

Die False Discovery Rate (FDR) ist ein junges Fehlerkontrollkriterium in multiplen Testsituationen. Sie wird insbesondere in Anwendungsgebieten der explorativen Datenanalyse und bei Vorliegen von sehr großen Hypothesensystemen wie z.B. in der Genetik oder der Kosmologie immer populärer. Theorie und Anwendung der FDR hat sich in kurzer Zeit zu einem bedeutsamen Forschungsgebiet entwickelt.

Im ersten Teil des Vortrags werden die FDR-kontrollierende lineare step-up-Prozedur von Benjamini und Hochberg (LSU-Test) eingeführt und FDR-Ergebnisse für den Fall unabhängiger Teststatistiken vorgestellt. Unter Unabhängigkeit ist die FDR häufig exakt berechenbar. Es werden ein generelles Abhängigkeitsmodell präsentiert und Berechnungsformeln für die asymptotische FDR des LSU-Tests (Anzahl der zu testenden Hypothesen gegen unendlich) in diesem Modell entwickelt.

Der zweite Teil beschäftigt sich mit der Anwendung dieser allgemeinen Theorie auf konkrete Verteilungsbeispiele. Zwei in der Praxis auftretende Szenarios werden behandelt und die FDR-Ergebnisse grafisch dargestellt und diskutiert. Ein überraschendes Grenzwertverhalten zeigt sich, wenn die Modelle gegen Unabhängigkeit streben.

Analyse der Genetischen Assoziation in populationsbasierten Fall-Kontroll Studien

Prof. Dr. Ludwig A. Hothorn
Institut für Biostatistik, Leibniz Universität Hannover

Ort des Vortrages: H2
Uhrzeit: 11.00 Uhr
Datum: 19. Januar 2007

Nicht-parametrische HE-Regression – erste Ansätze mittels multipler Kontrasttests

Dipl. Ing. Agr. Daniel Gerhard

Mixed effects models for longitudinal data

Dr. Peter Schlattmann
Institut für Biometrie und Klinische Epidemiologie, Charité, Berlin

Ort des Vortrages:  n/a
Uhrzeit:  n/a
Datum:  12. Januar 2007

This talk presents linear and non-linear mixed effects models for longitudinal data. The analysis of longitudinal data has to deal both with within subject and between subjects variability. Random effects models can accomodate both topics. Estimation of the parameters is frequently done using maximum-likelihood. An outline of ML estimation of the model parameters is given for linear and non-linear mixed effects models.

The talk presents an outline of the use of fixed and mixed effects models using Potthoff's and Roy's orthodontic growth data for the linear mixed effects model. For nonlinear mixed effects models a data set dealing with the concentration time curve of the drug Theophyllin is used. All analyses are performed using the software package R.

CE McCulloch and SR Searle Generalized, Linear and Mixed models, Wiley, Chichester, 2001
JC Pinheiro and DM Bates. Mixed-Effects Modesl in S and S-plus. Springer, Berlin, 2000


Vorstellung und Vergleich verschiedener Fehlerkriterien und Testverfahren bei multiplen Testproblem

Dipl.-Math. Claudia Hemmelmann
Universität Jena

Ort des Vortrages:  H2
Uhrzeit:  10:00 Uhr
Datum:  21. Juni 2006

Heutzutage handelt es sich bei den meisten klinischen Fragestellungen um multiple Testprobleme, d.h. es sollen gleichzeitig mehrere Hypothesen getestet werden.
Würde man jeden der interessierenden Vergleiche auf dem Niveau α testen, muss man mit vielen irrtümlich abgelehnten Hypothesen rechnen. Um die Anzahl V der irrtümlich abgelehnten Hypothesen (d.h. Fehler 1. Art) zu beschränken, existieren viele verschiedene Fehlerkriterien. Das älteste und bekannteste Fehlerkriterium ist die family-wise error rate (FWE). Dabei wird gefordert, dass kein Fehler 1. Art zugelassen wird, d.h. P(V > 0) <= α. Allerdings erscheint diese Forderung gerade bei hochdimensionalen Problemen, wie beispielsweise Genexpressions-, fMRT- oder EEG-Daten, als zu streng. Aus diesem Grunde findet die false discovery rate (FDR) immer größere Beachtung. Hierbei wird das erwartete Verhältnis aus Anzahl der irrtümlich abgelehnten Hypothesen zu den insgesamt abgelehnten Hypothesen kontrolliert, d.h. FDR = E(V/R | R > 0) P(R > 0)<= α , wobei mit R die Anzahl der insgesamt abgelehnten Hypothesen bezeichnet wird. Der Hauptkritikpunkt an der FDR ist, dass es sich hierbei um einen Erwartungswert handelt und deshalb die FDR im Einzelfall nicht eingehalten werden muss. Es gibt aber durchaus Alternativen zur FWE und FDR.
Dies ist zum einen die generalized family-wise error rate (gFWE) und zum anderen die false discovery proportion (FDP). Beide Kriterien können als Erweiterung der FWE aufgefasst werden. Bei der gFWE wird P(V > u) <= α mit u >= 0 gefordert und bei der FDP P(V/R > γ)<= α für ein γ (0 <= γ < 1).
Im Vortrag werden diese vier Fehlerkriterien vorgestellt und verglichen. Des Weiteren werden für jedes Fehlerkriterium entsprechende Testverfahren präsentiert.

Theorie und Anwendung des Konzepts der "False Discovery Rate" (FDR)

PD Dr. Volker Guiard
Forschungsinstitut für die Biologie landwirtschaftlicher Nutztiere, Dummerstorf

Ort des Vortrages:  n/a
Uhrzeit:  n/a
Datum:  3. Mai 2005

Bei der Suche von QTL auf dem gesamten Genom wird für jede Genomposition jeweils ein Test durchgeführt, womit also ein multiples Testproblem mit extrem hohen Multiplizitätsgrad vorliegt. Wird dabei nur das punktweise Risiko erster Art vorgegeben, so wird jedoch die Wahrscheinlichkeit, an irgendeiner Position ein falsch positives Ergebnis zu erhalten (genomweites Risiko), bedeutend größer sein, als das punktweise Risiko. Daher ist es zum Standard geworden, dieses genomweite Risiko vorzugeben, womit allerdings die Power beträchtlich sinkt. Als einen Kompromiss zwischen diesen beiden Möglichkeiten schlugen Benjamini und Hochberg (1995) das Konzept der "False Discovery Rate" vor, welches eine andere Version des Risikos erster Art verwendet, welche auch noch vertretbar ist. Dieses Konzept hält aber nicht genau das, was der Name verspricht, weswegen es in der Anwendung oft Missverständnisse (z.B. Weller et al, 1998) und -vergebliche- Korrekturvorschläge (z.B. Mosig et al, 2001) gab.

Im Vortrag werden dieses Konzept und viele damit verbundene Probleme bzw. Anwendungsmissverständnisse vorgestellt.

Analyzing Genetic Variation on a Genomic Scale using Silicon Genetics newest Tool Varia

Markus Dueringer
Silicon Genetics, Redwood City

Ort des Vortrages:  n/a
Uhrzeit:  n/a
Datum:  21. Oktober 2004

Sudden infant death syndrome, or SIDS, is the leading cause of death in babies from one to 12 months, killing about 2,500 infants in the United States each year. Three decades of research have found factors that increase the risk of SIDS-such as letting babies sleep on their stomachs-but no definitive answers as to what causes the condition. Recently, studies have pointed to genetic and brain abnormalities that predispose an infant to SIDS. In an isolated Amish community in southern Pennsylvania, nine families lost 21 babies in two generations to the mysterious condition and scientists from all over the country investigated to try to find a genetic link to the deaths. What the researchers wanted to know: Why did so many seemingly healthy babies in one community die from unexplained causes?

What they did: The researchers, led by neurogeneticist Stephen Dietrich of the Translational Genomics Research Institute in Phoenix, analyzed DNA from four of the infants who died in southern Pennsylvania in the past several years, as well as DNA from their families. They looked for variations in specific chromosomes and in the genes that make up those chromosomes. When they found an abnormal gene in the affected infants, the researchers looked up the function of that gene and searched for any related symptoms the infants had before they died.

What they found: The four infants studied all had two abnormal copies of a gene called TSPYL, which regulates sexual differentiation, testicular development, and brain function. Their parents each had one abnormal TSPYL gene, so they were carriers of the condition, but, because the gene is recessive, the condition appears only in children who got two malformed copies of the gene from their parents. The two boys who died suddenly had underdeveloped testes or ambiguous genitalia, but the girls had no external sexual signs. Autopsy reports from the other 17 babies who died also showed that some of those babies had subtle, and often externally invisible, reproductive abnormalities. The researchers named this new variation of SIDS sudden infant death with dysgenesis of testes (SIDDT). Dysgenesis means disabled development and usually refers to an organ.

As part of the presentation Silicon Genetics will show how researchers at the Translational Genomics Research Institute in Phoenix used Silicon Genetics tool Varia to analyze Genotype data.

Tutorial - Statistical Learning Machines with Applications to Biomedical Data

James D. Malley, Ph.D.
Math. & Statistical Computing Laboratory; National Institutes of Health, Bethesda, USA

Ort des Vortrages:  n/a
Uhrzeit:  n/a
Datum:  11. Dezember 2003

Over the few years the machine learning community has developed many quite successful methods for classification and regression, and these include support vector machines, boosting, and random forests, each with subvariations. However, these methods have not been widely used or understood in the biostatistical community. To this end, we review the main ideas of statistical learning machines, and consider possible applications to biomedical data analysis. We observe that there are important differences in how these machines might be applied to such data, quite distinct from how they have been used in the computer sciences. These differences include much smaller sample sizes and a focus on prediction error estimates, both a result of having to use the data for both training and testing. Other differences include unbalanced data (positive cases much more numerous than negative cases) and questions of interpretability of the proposed prediction scheme. We outline possible solutions to these problems, and discuss the analysis of two data sets, the German Stroke Collaboration (with Prof. Hans-C. Diener, Clinic of Neurology, University Hospital Essen; Prof. Andreas Ziegler, Lübeck) and a study of prognostic factors in Systemic Lupus Erythematosus (in association with Dr. Michael Ward, National Institutes of Health, National Institute of Arthritis and Musculoskeletal and Skin Diseases).

Biometrical Genetics: past, present and future

Prof. Robert C. Elston
Department of Epidemiology and Biostatistics, School of Medicine, Case Western Reserve University, Cleveland, Ohio

Ort des Vortrages:  n/a
Uhrzeit:  n/a
Datum:  1. Juni 2003

Some of the important contributions of Mendel, Fisher and others during the 20th century in the development of population genetic models are reviewed, followed by a review of the four major areas of genetic epidemiology used for gene discovery: familial aggregation, segregation, co-segregation and association. It is shown how the latest methods currently being used have their theoretical basis in developments made in the early part of the century. Finally, there is speculation about what will be the main areas in biometrical genetics developed in the 21st century.

Kandidatengenstudien beim ´Munich Antidepressant Response Signature (M.A.R.S.)´ Projekt

PD Dr. Betram Müller-Myhsok
Max-Planck-Institut für Psychiatrie, München

Ort des Vortrages:  n/a
Uhrzeit:  n/a
Datum:  22. Mai 2003

Das "Munich Antidepressant Response Signature (M.A.R.S.)" Projekt bietet verschiedene Möglichkeiten zur Untersuchung der Einflüsse von Kandidatengenen auf die untersuchten Phänotypen. Hierbei stehen zunächst auch methodische Fragestellungen im Raum, insbesondere der Haplotypisierung und einer adäquaten Korrektur für multiple Tests. Ansätze zur Lösung dieser Fragen werden vorgestellt.