8. Regulierung in den Naturwissenschaften (WIN-Programm)
involvierten Disziplinen. Fokussiert wurde auf herkömmliches methodologisches
Vorgehen in der biotechnologischen Forschung im Vergleich zu den normativen
Wissenschaften Ethik und Recht. Ein Ereignis von besonderer Bedeutung für die
ersten Arbeitsschritte des Projekts war der Vortrag im Januar im WIN-Kolleg zu
den biologischen und juristischen Perspektiven der Fragestellung, ob Quantität
einen qualitativen Mehrwert hat. Der Vortrag diente dazu, das Projekt im WIN-
Kolleg zu verorten.
Daneben war es von Anfang an wichtig, die spezifischen normativen Her-
ausforderungen der translationalen genetischen Forschung an großen Daten-
sammlungen zu identifizieren. Das internationale Projekt „Pan Cancer Analysis of
Whole Genomes“ (PCAWG) wurde als Ausgangspunkt für die Analysen im Pro-
jekt zugrunde gelegt. Das PCAWG-Projekt, ein internationales Krebsforschungs-
projekt, ist Wegbereiter des breiten Einsatzes von Analysenmethoden mittels
Hochleistungsrechensystemen sowie mittels akademischen und auch kommerzi-
ellen Cloud-Computing-Plattformen. Neu entwickelte analytische Werkzeuge er-
möglichen die standardisierte Untersuchung von Krebsgenomen und mit solchen
verbundenen Datensätzen, wie klinische Daten im Petabyte-Bereich. Sie können
zur Beantwortung systembiologischer Fragestellungen in unbekannter Dimension
führen. Es wird geschätzt, dass bis 2018 alleine in Deutschland mehr als 25.000
Genome zum Zwecke dieser Analysen sequenziert werden und dass im Rahmen
dieser und ähnlicher Initiativen in den nächsten drei bis fünf Jahren mehrere hun-
derttausende Patientengenome sequenziert und analysiert werden.1
Eine besondere Herausforderung stellt die zu verarbeitende Datenmenge
sowie der weltweite Datenaustausch in solchen Forschungsprojekten dar. Keine
einzige deutsche Universität und keines der deutschen Forschungszentren ver-
fügt derzeit über die notwendige Infrastruktur, um Analysen mit solch großen
Datensätzen durchzuführen und die gesicherte Speicherung und die Verhinde-
rung unerlaubten Zugriffs auf die Daten zu gewährleisten. Mit der Datenverarbei-
tung werden zunehmend kommerzielle und ausländische Partner beauftragt. Des
Weiteren sind Ergebnisdaten, die in verschiedenen Instituten verarbeitet wurden,
aufgrund fehlender Standardisierung von Arbeitsabläufen bei der rechnerischen
Analyse nicht vergleichbar. Daher kommt es zunehmend zur Etablierung einzel-
ner Clouds, auf welche weltweit, oder in bestimmten Fällen regional, zugegriffen
1 Das Prinzip des Cloud-Computing liegt darin, dass mehrere Benutzer einen gemeinsamen
Pool von Computern und Datenspeichergeräten per Fernzugang nutzen. Clouds können für
die Öffentlichkeit zugänglich (öffentliche Cloud) oder auf eine bestimmte Benutzergemein-
schaft beschränkt sein (Gemeinschafts-Cloud). In der Regel sind in einer Cloud mehrere
Merkmale kombiniert: Ressourcenbündelung für beschleunigte Berechnungen und Elasti-
zität, On-Demand Self-Service, breiter Netzwerkzugriff und standardisierter Datenschutz.
Service-Modelle umfassen die Bereitstellung von Software-as-a-Service (Software als Dienst-
leistung) und Infrastructure-as-a-Service (Infrastruktur als Dienstleistung).
279
involvierten Disziplinen. Fokussiert wurde auf herkömmliches methodologisches
Vorgehen in der biotechnologischen Forschung im Vergleich zu den normativen
Wissenschaften Ethik und Recht. Ein Ereignis von besonderer Bedeutung für die
ersten Arbeitsschritte des Projekts war der Vortrag im Januar im WIN-Kolleg zu
den biologischen und juristischen Perspektiven der Fragestellung, ob Quantität
einen qualitativen Mehrwert hat. Der Vortrag diente dazu, das Projekt im WIN-
Kolleg zu verorten.
Daneben war es von Anfang an wichtig, die spezifischen normativen Her-
ausforderungen der translationalen genetischen Forschung an großen Daten-
sammlungen zu identifizieren. Das internationale Projekt „Pan Cancer Analysis of
Whole Genomes“ (PCAWG) wurde als Ausgangspunkt für die Analysen im Pro-
jekt zugrunde gelegt. Das PCAWG-Projekt, ein internationales Krebsforschungs-
projekt, ist Wegbereiter des breiten Einsatzes von Analysenmethoden mittels
Hochleistungsrechensystemen sowie mittels akademischen und auch kommerzi-
ellen Cloud-Computing-Plattformen. Neu entwickelte analytische Werkzeuge er-
möglichen die standardisierte Untersuchung von Krebsgenomen und mit solchen
verbundenen Datensätzen, wie klinische Daten im Petabyte-Bereich. Sie können
zur Beantwortung systembiologischer Fragestellungen in unbekannter Dimension
führen. Es wird geschätzt, dass bis 2018 alleine in Deutschland mehr als 25.000
Genome zum Zwecke dieser Analysen sequenziert werden und dass im Rahmen
dieser und ähnlicher Initiativen in den nächsten drei bis fünf Jahren mehrere hun-
derttausende Patientengenome sequenziert und analysiert werden.1
Eine besondere Herausforderung stellt die zu verarbeitende Datenmenge
sowie der weltweite Datenaustausch in solchen Forschungsprojekten dar. Keine
einzige deutsche Universität und keines der deutschen Forschungszentren ver-
fügt derzeit über die notwendige Infrastruktur, um Analysen mit solch großen
Datensätzen durchzuführen und die gesicherte Speicherung und die Verhinde-
rung unerlaubten Zugriffs auf die Daten zu gewährleisten. Mit der Datenverarbei-
tung werden zunehmend kommerzielle und ausländische Partner beauftragt. Des
Weiteren sind Ergebnisdaten, die in verschiedenen Instituten verarbeitet wurden,
aufgrund fehlender Standardisierung von Arbeitsabläufen bei der rechnerischen
Analyse nicht vergleichbar. Daher kommt es zunehmend zur Etablierung einzel-
ner Clouds, auf welche weltweit, oder in bestimmten Fällen regional, zugegriffen
1 Das Prinzip des Cloud-Computing liegt darin, dass mehrere Benutzer einen gemeinsamen
Pool von Computern und Datenspeichergeräten per Fernzugang nutzen. Clouds können für
die Öffentlichkeit zugänglich (öffentliche Cloud) oder auf eine bestimmte Benutzergemein-
schaft beschränkt sein (Gemeinschafts-Cloud). In der Regel sind in einer Cloud mehrere
Merkmale kombiniert: Ressourcenbündelung für beschleunigte Berechnungen und Elasti-
zität, On-Demand Self-Service, breiter Netzwerkzugriff und standardisierter Datenschutz.
Service-Modelle umfassen die Bereitstellung von Software-as-a-Service (Software als Dienst-
leistung) und Infrastructure-as-a-Service (Infrastruktur als Dienstleistung).
279