एक रिपोर्ट के अनुसार Amazon, Microsoft व Intel जैसी कंपनियां कातिल रोबोट का विकास करके संसार को खतरे में डाल सकती हैं। लीथल ऑटोनॉमस हथियारों को लेकर किए गए एक सर्वे में ये बात सामने आई। डच एनजीओ पैक्स ने 50 कंपनियों की इस मुद्दे में रैंकिंग की। इनसे पूछा गया कि ये कंपनियां ऐसी किसी तरह की तकनीक का विकास कर रही हैं जो कि डेडली आर्टिफिशियल इंटेलिजेंस में सहायक हो सकती है, क्या वे इस तरह के मिलिट्री प्रोजेक्ट में सहायता कर रही हैं व क्या वे इस तरह के कार्य से अपने आपको भविष्य में दूर रखेंगी। इस सप्ताह छपी रिपोर्ट को लिखने वाले फ्रैंक स्लिजपर ने बोला कि ये कंपियां क्यों इन बातों से मना नहीं कर रही हैं कि वे ऐसे किसी तकनीक के विकास में शामिल नहीं हैं।
हथियार खुद निर्णय लेंगे कि किसे मारना है-
ये हथियार ऐसे होंगे जो कि खुद इस बात का निर्णय करेंगे कि किसे मारना है या किस पर हमला करना है। इस प्रोसेस में किसी आदमी का इन्वॉल्वमेंट नहीं होगा। इससे पूरी संसार की शांति को खतरा होने कि सम्भावना है। यूनीवर्सिटी ऑफ कैलीफोर्निया में कंप्यूटर साइंस के प्रोफेसर स्टुअर्ट रसेल ने बोला कि ऑटोनॉमस वीपन्स बहुत ज्यादा खतरनाक हो सकते हैं क्योंकि ऐसी स्थिति में एक अकेला आदमी ही करोड़ों हथियारों को लॉन्च कर सकता है।
यह हथियार कितना खतरनाक होने कि सम्भावना है इसका पता इसी बात से लगा सकते हैं कि फेशियल रिकग्निशन टेक्नीक का उपयोग करके किसी खास एथनिक ग्रुप का सफाया किया जा सकता है या कि सोशल मीडिया पेज को स्टडी करके किसी खास सियासी विचारधारा वाले लोगों को भी समाप्त किया जा सकता है।
मिलिट्री पर्पज़ के लिए यूज़ पर भी बहस जारी-
मिलिट्री पर्पज़ के लिए आर्टिफिशियल इंटेलीजेंस के इस्तेमाल पर भी बहस छिड़ गई है। कुछ लोग इसका विरोध कर रहे हैं। पिछले वर्ष गूगल ने पेंटागन के एक प्रोजेक्ट Maven को रिन्यू करने से इन्कार कर दिया जो कि ड्रोन वीडियोज़ में आदमियों को ऑब्जेक्ट से अलग पहचानने के लिए था। रसेल ने बोला कि अभी के समय में जो भी हथियार हैं उनको ऑटोनॉमस बनाने के लिए लगातार प्रयास हो रही है।