Aus dem Forschungslabor

Der PETA-Algorithmus

Der technische Fortschritt macht nicht nur unser Leben an vielen Stellen besser, sondern kommt auch Lebewesen zugute, die bislang allzu oft die Leidtragenden neuer Entwicklungen waren. Denn ein Forscherteam hat einen Algorithmus entwickelt, der die Toxizität von Chemikalien mit hoher Genauigkeit errechnet und so helfen kann, Tierversuche zu vermeiden.
Eine stillstehende IT kostet Firmen bares Geld, dabei können die Gründe für einen Ausfall vielfältig sein. Im Juni dreht sich der Schwerpunkt im ... (mehr)

Von den rund 85.000 Chemikalien, die in Konsumgütern aller Art Verwendung finden, wurde ein Großteil bislang gar nicht auf seine Giftigkeit getestet. Dies ist natürlich nicht immer notwendig oder gesetzlich vorgeschrieben, und doch wäre es für die Verbrauchersicherheit ein großer Fortschritt, ließen sich chemische Bestandteile kostengünstig und schnell hinsichtlich möglicher negativer Eigenschaften testen. Mit Tierversuchen ist dies aus Zeit- und Kostengründen nicht machbar – ganz zu schweigen von den ethischen Fragen, die solche Versuche grundsätzlich aufwerfen.

Keine neue Idee

Vor diesem Hintergrund war die Idee des Teams rund um Daniel Russo von der Rutgers University am Camden Center for Computational and Integrative Biology, derartige Tests in Computer zu verlagern, nicht ganz neu. Denn Russo sieht nach wie vor "einen dringenden, weltweiten Bedarf nach genauen, effektiven und schnellen Methoden, die Toxizität von Chemikalien zu testen." Bevor ihm und seinem Team der hier thematisierte Durchbruch gelang, hatten zahlreiche Forschergruppen versucht, in Computermodellen die Gefährlichkeit von neuen Substanzen zu ermitteln. Doch der hierbei gängige Ansatz, das Gefährdungspotenzial neuer Stoffe durch einen Vergleich mit bekannten, strukturell ähnlichen Molekülen zu ermitteln, führte in eine Sackgasse: Zum einen kann sich die Toxizität durch winzige Änderungen am Molekül massiv ändern, zum anderen hatten diese Computermodelle keinen Ansatz, wenn das zu untersuchende Molekül in seiner Struktur einmalig war.

 Daher ging die Russo-Gruppe anders vor und entwickelte einen Algorithmus, der sich mit "PubChem" – einer Datenbank des National Institutes of Health mit Millionen von Einträgen zu Chemikalien – verbindet. Dann vergleicht die Software den neuen Stoff, indem es ihn in Fragmente zerlegt und in der Datenbank nachsieht, welche

...

Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.

Ähnliche Artikel

comments powered by Disqus
Mehr zum Thema

Aus dem Forschungslabor

Die Herausforderung, Erdbebensignale optimal zu analysieren, wächst zusammen mit der Menge der verfügbaren seismischen Daten an. Am Karlsruher Institut für Technologie (KIT) haben Forschende nun ein neuronales Netz eingesetzt, um die Ankunftszeit von seismischen Wellen zu bestimmen und dadurch Erdbebenzentren genau zu lokalisieren.

Artikel der Woche

Eigene Registry für Docker-Images

Wer selber Docker-Images herstellt, braucht auch eine eigene Registry. Diese gibt es ebenfalls als Docker-Image, aber nur mit eingeschränkter Funktionalität. Mit einem Auth-Server wird daraus ein brauchbares Repository für Images. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Google+

Ausgabe /2019