Von den rund 85.000 Chemikalien, die in Konsumgütern aller Art Verwendung finden, wurde ein Großteil bislang gar nicht auf seine Giftigkeit getestet. Dies ist natürlich nicht immer notwendig oder gesetzlich vorgeschrieben, und doch wäre es für die Verbrauchersicherheit ein großer Fortschritt, ließen sich chemische Bestandteile kostengünstig und schnell hinsichtlich möglicher negativer Eigenschaften testen. Mit Tierversuchen ist dies aus Zeit- und Kostengründen nicht machbar – ganz zu schweigen von den ethischen Fragen, die solche Versuche grundsätzlich aufwerfen.
Vor diesem Hintergrund war die Idee des Teams rund um Daniel Russo von der Rutgers University am Camden Center for Computational and Integrative Biology, derartige Tests in Computer zu verlagern, nicht ganz neu. Denn Russo sieht nach wie vor "einen dringenden, weltweiten Bedarf nach genauen, effektiven und schnellen Methoden, die Toxizität von Chemikalien zu testen." Bevor ihm und seinem Team der hier thematisierte Durchbruch gelang, hatten zahlreiche Forschergruppen versucht, in Computermodellen die Gefährlichkeit von neuen Substanzen zu ermitteln. Doch der hierbei gängige Ansatz, das Gefährdungspotenzial neuer Stoffe durch einen Vergleich mit bekannten, strukturell ähnlichen Molekülen zu ermitteln, führte in eine Sackgasse: Zum einen kann sich die Toxizität durch winzige Änderungen am Molekül massiv ändern, zum anderen hatten diese Computermodelle keinen Ansatz, wenn das zu untersuchende Molekül in seiner Struktur einmalig war.
Daher ging die Russo-Gruppe anders vor und entwickelte einen Algorithmus, der sich mit "PubChem" – einer Datenbank des National Institutes of Health mit Millionen von Einträgen zu Chemikalien – verbindet. Dann vergleicht die Software den neuen Stoff, indem es ihn in Fragmente zerlegt und in der Datenbank nachsieht, welche
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.