Die Standardisierung, Portabilität und Reproduzierbarkeit von Analysemethoden ist nach wie vor ein bekanntes Problem in der angewandten Informatik und hierbei insbesondere in den Lebenswissenschaften. Analysetools sind oftmals auf spezifische Infrastruktur zugeschnitten und können nur schlecht von dieser getrennt angewandt werden. Mittels Nextflow, einer domänenspezifischen Sprache auf Groovy-Basis und nf-core, einem Framework für die Anwendung von Erfahrungen aus der Entwicklung vieler stabiler Analysepipelines, versuchen wir diese Probleme konkret zu addressieren. Hierbei werden Containertechnologien, Cloud Ressourcen und eine Community aus Entwicklern rund um den Globus eingebunden um eine möglichst flexible Entwicklung dieser Plattformen zu erreichen. Im Talk werden die einzelnen Aspekte beleuchtet und detailliert beschrieben, so dass Zuhörer auch selbst in die Entwicklung solcher Analysepipelines einsteigen können. #### Über mich Alexander Peltzer ist promovierter Bioinformatiker und als Wissenschaftler am Zentrum für Quantitative Biologie in Tübingen tätig. Er entwickelt dort moderne Lösungen für die Datenanalyse die unabhängig von bestehender Infrastruktur die Lücken zwischen on-premise und Cloud Infrastrukturen schließen. Davor war er als Doktorand an der Universität Tübingen und dem Max-Planck Institut für Menschheitsgeschichte für die Datenauswertung an altertümlicher DNA zuständig und hat hier viel Erfahrung im Bereich skalierbare und reproduzierbare Datenanalyse aufbauen können. #### Vorwissen Interesse am Themengebiet BigData / Cloud Computing. Eventuell hilfreich: Containertechnologien, aber nicht notwendig.
Speakers: Alexander Peltzer