Drones et des véhicules sans pilote comme arme: pourquoi nous avons besoin d'avoir peur des pirates
De La Technologie / / December 19, 2019
Personne ne peut nier que l'intelligence artificielle peut mettre nos vies niveau. AI est en mesure de résoudre de nombreux problèmes qui sont au-delà du pouvoir de l'homme.
Cependant, beaucoup pensent que superintelligence voudra nous détruire, comme SkyNet, ou commencer à mener des expériences sur les gens comme GLaDOS du jeu Portal. L'ironie est que, pour faire une intelligence artificielle de seulement les gens peuvent bien ou mal.
Des chercheurs de Yale, Oxford, Cambridge et la société a affiché OpenAI rapport sur l'abus de l'intelligence artificielle. Il dit que le vrai danger vient des pirates informatiques. Avec l'aide d'un code malveillant, ils peuvent perturber le fonctionnement des systèmes automatisés sous contrôle AI.
Les chercheurs craignent que la technologie créée avec de bonnes intentions, sera utilisé pour nuire. Par exemple, la surveillance peut être appliquée non seulement pour attraper les terroristes, mais aussi pour espionner les citoyens ordinaires. Les chercheurs ont également inquiétant drones commerciaux, qui fournissent la nourriture. Ils sont faciles à intercepter et à mettre un explosif quelque chose.
Un autre scénario est l'utilisation destructrice de la grippe aviaire - véhicules sans pilote. Il suffit de changer quelques lignes de code, et la machine va commencer à ignorer les règles de sécurité.
Les scientifiques croient que la menace peut être numérique, physique et politique.
- L'intelligence artificielle est déjà utilisé pour étudier la vulnérabilité des différents codes de programme. À l'avenir, les pirates pourraient créer un tel bot, qui contournera toute protection.
- Avec personne AI peut automatiser un grand nombre des processus: par exemple, pour contrôler un essaim de drones, ou un groupe de véhicules.
- Avec des technologies telles que DeepFake, peuvent influer sur la vie politique de l'Etat, diffusion de fausses informations sur les dirigeants du monde via les robots Internet.
Ces exemples effrayants existent seulement comme une hypothèse. Les auteurs de l'étude ne proposent pas un rejet complet de la technologie. Au lieu de cela, ils croient que les gouvernements et les grandes entreprises devraient prendre soin de la sécurité, alors que l'industrie intelligence artificielle la petite enfance.
Les politiciens doivent apprendre la technologie et de travailler en collaboration avec des experts dans le domaine, de réglementer efficacement la mise en place et l'utilisation de l'intelligence artificielle.
Les développeurs, à leur tour, devraient évaluer le danger que représente la haute technologie, d'anticiper et de prévenir les pires conséquences de ces leaders mondiaux. Les appels de rapport pour les développeurs AI: équipe avec des experts de la sécurité dans d'autres domaines et pour savoir si vous pouvez utiliser les principes qui assurent la sécurité de ces technologies pour la protection artificielle l'intelligence.
Le rapport complet décrit le problème plus en détail, mais le fait que l'IA - un puissant outil. Toutes les parties prenantes doivent apprendre une nouvelle technologie et assurez-vous qu'il ne soit pas utilisé à des fins criminelles.