IBM Adversarial Robustness Toolbox beschermt tegen kwaadaardige AI
23-04-2018 | door: Witold Kepinski
Deel dit artikel:

IBM Adversarial Robustness Toolbox beschermt tegen kwaadaardige AI

IBM introduceert de Adversarial Robustness Toolbox die organisaties beschermt tegen kwaadaardig gebruik van AI. Er zijn AI aanvallen mogelijk zoals 'adversarial machine learning'. In dit scenario worden de neurale netwerken van AI-systemen misleid door opzettelijk gewijzigde externe gegevens. Een aanvaller vervormt deze ingangen enigszins, met als enig doel om AI te misclassificeren. 

IBM heeft nu in zijn Dublin-labs een opensource AI-bibliotheek ontwikkeld, de IBM Adversarial Robustness Toolbox (ART). Het IBM-team heeft zijn Adversarial Robustness Toolbox ontworpen om platformonafhankelijk te zijn. Of de gebruiker nu codeert of ontwikkelt in Keras of TensorFlow, hij of zij kan dezelfde bibliotheek toepassen om verdedigingen te bouwen.

IBM-ontwikkelaars hebben onlangs open source AI-trainings- en assemblagetools vrijgegeven, zoals Fabric for Deep LearningModel Asset eXchange (MAX) en het Center of Open Source Data en AI Technologies (CODAIT).

Erkennend dat collaboratieve verdediging de enige manier is waarop beveiligingsteams en ontwikkelaars een voorsprong nemen op de vijandige AI-bedreiging, heeft IBM ook aangekondigd dat de ART vrij beschikbaar is op GitHub. AI-ontwikkelaars, onderzoekers of anderszins geïnteresseerden in tegenstrijdige AI zijn harte welkom IBM ART te gebruiken.

Lees meer op deze link.

WK

Terug naar nieuws overzicht
Security