ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ

ਤਸਵੀਰ ਸਰੋਤ, HAMSHAHRIONLINE
ਇਰਾਨ ਦੀ ਰਾਜਧਾਨੀ ਤਹਿਰਾਨ
ਵਿਗਿਆਨਿਕ ਮੋਹਸਿਨ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀਆਂ ਗੱਡੀਆਂ ਦਾ ਕਾਫ਼ਲਾ ਰਾਜਧਾਨੀ ਦੇ ਬਾਹਰੀ ਇਲਾਕੇ ਵਿੱਚੋਂ ਲੰਘ ਰਿਹਾ ਸੀ।
ਉਹ ਇਰਾਨ ਦੇ ਸਭ ਤੋਂ ਸੀਨੀਅਰ ਪਰਮਾਣੂ ਵਿਗਿਆਨਿਕ ਮੰਨੇ ਜਾਂਦੇ ਸਨ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਪਹਿਰੇ ਵਿੱਚ ਰਹਿੰਦੇ ਸਨ।
ਕੁਝ ਦੇਰ ਬਾਅਦ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀ ਗੱਡੀ 'ਤੇ ਹਮਲਾ ਹੋਇਆ। ਜ਼ਬਰਦਸਤ ਗੋਲੀ ਬਾਰੀ ਹੋਈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਮੌਤ ਹੋ ਗਈ। ਇਹ ਕੋਈ ਸਧਾਰਨ ਹਮਲਾ ਨਹੀਂ ਸੀ।
ਮੌਕੇ 'ਤੇ ਮੌਜੂਦ ਰਹੇ ਇੱਕ ਸੀਨੀਅਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਉਥੇ ਕੋਈ ਹਮਲਾਵਰ ਨਹੀਂ ਸੀ। ਗੋਲੀਆਂ ਇੱਕ ਕਾਰ ਵਿੱਚ ਲੱਗੀ ਮਸ਼ੀਨਗੰਨ ਨਾਲ ਚਲਾਈਆਂ ਗਈਆਂ ਪਰ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਚਲਾਉਣ ਵਾਲਾ ਕੋਈ ਨਹੀਂ ਸੀ।
ਇਹ ਵੀ ਪੜ੍ਹੋ
ਈਰਾਨ ਦੇ ਇੱਕ ਹੋਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜ਼ਰੀਏ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾ ਰਿਹਾ ਸੀ।
'ਕੰਪਿਊਟਰ ਨਾਲ ਕਾਬੂ ਹੋਣ ਵਾਲੀ ਮਸ਼ੀਨਗੰਨ'। ਇਹ ਹੌਲੀਵੁੱਡ ਦੀ ''ਕਿਲਰ ਰੋਬੋਟ'' ਸੀਰੀਜ਼ ਵਾਲੀਆਂ ਫ਼ਿਲਮਾਂ ਤੋਂ ਪ੍ਰੇਰਿਤ ਕਹਾਣੀ ਦਾ ਹਿੱਸਾ ਲਗਦਾ ਹੈ।
ਜਿਥੇ ਇੱਕ ਅਜਿਹੀ ਮਸ਼ੀਨ ਹੈ, ਜੋ ਸੋਚ ਸਕਦੀ ਹੈ ਅਤੇ ਨਿਸ਼ਾਨਾਂ ਸਾਧ ਕੇ ਗੋਲੀ ਵੀ ਚਲਾ ਸਕਦੀ ਹੈ।
ਪਰ ਕੀ ਅਜਿਹਾ ਸੰਭਵ ਹੈ? ਜੇ ਹੈ ਤਾਂ ਇੱਕ ਹੋਰ ਸਵਾਲ ਖੜਾ ਹੁੰਦਾ ਹੈ ਕਿ ਕੀ ਆਉਣ ਵਾਲੇ ਦਿਨਾਂ ਵਿੱਚ ਜੰਗ ਵਿੱਚ ਵੀ ਸੈਨਿਕਾਂ ਦੀ ਜਗ੍ਹਾ ਹੁਣ ਰੋਬੋਟ ਆਹਮਣੇ-ਸਾਹਮਣੇ ਹੋਣਗੇ?

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਜੰਗ 'ਚ ਲੜਨਗੇ ਰੋਬੋਟ?
ਅਮਰੀਕਾ ਦੀ ਜਾਨ ਹਾਪਿਨਸ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਸੀਨੀਅਰ ਰਿਸਰਚ ਐਨਾਲਿਸਟ ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਸ ਦੇ ਕੋਲ ਇਹ ਸਮਰੱਥਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਮਨੁੱਖੀ ਮਦਦ ਜਾਂ ਨਿਰਦੇਸ਼ ਦੇ ਬਿਨਾਂ ਆਪਣੇ ਟੀਚੇ ਤੈਅ ਕਰੇ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕੇ।''
ਇਥੇ ਇਹ ਸਮਝਣਾ ਹੋਵੇਗਾ ਕਿ ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ 'ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ 'ਆਟੋਨੋਮਸ'। ਯਾਨੀ ਮਸ਼ੀਨ ਨੂੰ ਖ਼ੁਦ ਫ਼ੈਸਲੇ ਲੈਣ ਦੀ ਤਾਕਤ ਦੇਣਾ। ਇਸ ਨੂੰ ਲੈ ਕੇ ਬਹਿਸ ਹੁੰਦੀ ਰਹਿੰਦੀ ਹੈ।
ਇਨ੍ਹਾਂ ਹਥਿਆਰਾਂ ਦਾ ਦਾਇਰਾ ਵੀ ਕਾਫ਼ੀ ਵੱਡਾ ਹੈ। ਇਨ੍ਹਾਂ ਵਿੱਚ ਮੁੱਢਲੀ (ਪ੍ਰਾਇਮਰੀ) ਪੱਧਰ ਦੇ ਹਥਿਆਰਾਂ ਤੋਂ ਲੈ ਕੇ ਟਰਮੀਨੇਟਰ ਤੱਕ ਆਉਂਦੇ ਹਨ। ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅੱਜ ਵੀ ਅਜਿਹੇ ਹਥਿਆਰ ਮੌਜੂਦ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਸਾਡੇ ਕੋਲ ਸਮੁੰਦਰੀ ਸੁਰੰਗ, ਕਈ ਤਰ੍ਹਾਂ ਦੀਆਂ ਜ਼ਮੀਨੀ ਸੁਰੰਗਾਂ, ਸਾਈਬਰ ਤਕਨੀਕ ਅਤੇ ਸਾਈਬਰ ਹਥਿਆਰ ਹਨ ਜੋ ਆਟੋਨੋਮਸ ਹਨ। ਫ਼ਿਰ ਇਸਰਾਈਲ ਦੀ ਐਂਟੀ ਰੇਡੀਏਸ਼ਨ ਮਿਸਾਈਲ ਹੈਰੋਪ ਹੈ। ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਕਿ ਲੌਂਚ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ ਇਹ ਸਿਗਨਲ ਦੇ ਆਧਾਰ 'ਤੇ ਹਮਲਾ ਕਰਨ ਬਾਰੇ ਖ਼ੁਦ ਤੈਅ ਕਰਦੀ ਹੈ। ਤੁਸੀਂ ਪੈਟੀਅਲ ਮਿਸਾਈਲ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਕਰਦੇ ਹੋਏ ਆਟੋਮੈਟਿਕ ਮੋਡ ਵਿੱਚ ਤਾਇਨਾਤ ਕਰ ਸਕਦੇ ਹੋ।''
''ਕਿਲਰ ਰੋਬੋਟ'' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ 'ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ।
ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ''ਚੀਨ ਆਪਣੀ ਸੈਨਾ ਨੂੰ ਮਜ਼ਬੂਤ ਬਣਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ। ਉਹ ਆਪਣੀ ਜਲ ਸੈਨਾ ਲਈ ਜਹਾਜ਼ਾਂ ਅਤੇ ਪਣਡੁੱਬੀਆਂ ਨੂੰ ਸਵੈਚਾਲਕ ਬਣਾ ਰਹੇ ਹਨ।
ਇਸਰਾਈਲ ਜ਼ਮੀਨੀ ਹਥਿਆਰਾਂ ਮਸਲਨ ਟੈਂਕਾਂ ਅਤੇ ਤੋਪਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਿੱਚ ਲੱਗਿਆ ਹੋਇਆ ਹੈ।''
ਉਨ੍ਹਾਂ ਅੱਗੇ ਦੱਸਿਆ, '' ਰੂਸ ਵੀ ਜ਼ਮੀਨੀ ਉਪਕਰਣਾਂ 'ਤੇ ਕਾਫ਼ੀ ਰਕਮ ਖ਼ਰਚ ਕਰ ਰਿਹਾ ਹੈ। ਅਮਰੀਕਾ ਦੀ ਦਿਲਚਸਪੀ ਹਰ ਜਗ੍ਹਾ ਹੈ। ਏਅਰਫ਼ੋਰਸ, ਏਅਰਬੇਸ ਸਿਸਟਮ ਤੋਂ ਲੈ ਕੇ ਮਿਜ਼ਾਈਲ ਤੱਕ। ਯੂਕੇ ਵੀ ਆਪਣੀ ਹਵਾਈ ਸੈਨਾ ਅਤੇ ਜਲ ਸੈਨਾ ਦੀ ਸਮਰੱਥਾ ਵਧਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ।''
ਇਹ ਵੀ ਪੜ੍ਹੋ

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਮਾਹਰਾਂ ਦੀ ਚਿੰਤਾ
ਅਹਿਮ ਗੱਲ ਇਹ ਹੈ ਕਿ ਹਾਲੇ ਜੋ ਸਾਰੇ ਹਥਿਆਰ ਵਿਕਸਿਤ ਹੋ ਰਹੇ ਹਨ, ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਸਾਰੇ ਰੋਬੋਟ ਕਿਲਰ ਨਹੀਂ ਹੋਣਗੇ। ਪਰ ਕੁਝ ਹਥਿਆਰਾਂ ਅਤੇ ਦੇਸਾਂ ਨੂੰ ਲੈ ਕੇ ਹੈਦਰ ਫ਼ਿਕਰਮੰਦ ਨਜ਼ਰ ਆਉਂਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਪੱਛਮੀ ਦੇਸ ਜੋਖ਼ਮ ਨੂੰ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਨ। ਉਹ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਭਰਪੂਰ ਟੈਸਟ ਕਰਦੇ ਹਨ ਪਰ ਰੂਸ ਜਲਦੀ ਵਿਕਸਿਤ ਕੀਤੇ ਗਏ ਉਪਕਰਣਾਂ ਨੂੰ ਜ਼ਿਆਦਾ ਟੈਸਟਿੰਗ ਕੀਤੇ ਬਿਨਾ ਹੀ ਤਾਇਨਾਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਮੈਂ ਇਸੇ ਨੂੰ ਲੈ ਕੇ ਹੀ ਫ਼ਿਕਰਮੰਦ ਹਾਂ।"
ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ 'ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"
ਆਕਸਫ਼ੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਐਸੋਸੀਏਟ ਪ੍ਰੋਫ਼ੈਸਰ ਟੌਮ ਸਿੰਪਸਨ ਨੇ ਜੰਗ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਕਈ ਸਾਲ ਲਗਾਏ ਹਨ। ਉਹ ਪੰਜ ਸਾਲਾਂ ਤੱਕ ਯੂਕੇ ਦੀ ਸੈਨਾ ਨਾਲ ਜੁੜੇ ਰਹੇ ਹਨ। ਤਕਨੀਕੀ ਅਤੇ ਸੁਰੱਖਿਆ ਨਾਲ ਜੁੜੇ ਸਵਾਲਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਦਿਲਚਸਪੀ ਲਗਾਤਾਰ ਬਣੀ ਹੋਈ ਹੈ
ਜੰਗ ਵਰਗੇ ਖ਼ਤਰਨਾਕ ਮੋਰਚਿਆਂ 'ਤੇ ਇਨਸਾਨਾਂ ਦੀ ਬਜਾਇ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਵਿਚਾਰ 'ਤੇ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਇਸ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਅਜਿਹ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਸਰਕਾਰਾਂ ਦੀ ਨੈਤਿਕ ਧਰਾਤਲ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਸਰਕਾਰਾਂ ਦੀ ਇਹ ਜ਼ਿੰਮੇਵਾਰੀ ਹੈ ਕਿ ਆਪਣੇ ਸੈਨਿਕਾਂ ਦੀ ਜਾਨ ਬਚਾਉਣ ਲੀ ਉਹ ਅਜਿਹੇ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨ।''
ਪਰ ਟੌਮ ਸੁਚੇਤ ਕਰਦੇ ਹਨ ਕਿ ਇਸ ਤਕਨੀਕ ਦੇ ਖ਼ਤਰੇ ਵੀ ਹਨ।
ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨੂੰ ਆਪਣੇ ਐਂਡਰਾਇਡ ਫ਼ੋਨ 'ਤੇ ਇੰਝ ਲੈ ਕੇ ਆਓ:
ਇਸ ਲੇਖ ਵਿੱਚ Google YouTube ਤੋਂ ਮਿਲੀ ਸਮੱਗਰੀ ਸ਼ਾਮਲ ਹੈ। ਕੁਝ ਵੀ ਡਾਊਨਲੋਡ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਅਸੀਂ ਤੁਹਾਡੀ ਇਜਾਜ਼ਤ ਮੰਗਦੇ ਹਾਂ ਕਿਉਂਕਿ ਇਸ ਵਿੱਚ ਕੁਕੀਜ਼ ਅਤੇ ਦੂਜੀਆਂ ਤਕਨੀਕਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕੀਤਾ ਹੋ ਸਕਦਾ ਹੈ। ਤੁਸੀਂ ਸਵੀਕਾਰ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ Google YouTube ਕੁਕੀ ਪਾਲਿਸੀ ਤੇ ਨੂੰ ਪੜ੍ਹਨਾ ਚਾਹੋਗੇ। ਇਸ ਸਮੱਗਰੀ ਨੂੰ ਦੇਖਣ ਲਈ ਇਜਾਜ਼ਤ ਦੇਵੋ ਤੇ ਜਾਰੀ ਰੱਖੋ ਨੂੰ ਚੁਣੋ।
End of YouTube post, 1

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਮਸ਼ੀਨ ਕਰ ਸਕਦੀ ਹੈ ਗ਼ਲਤੀ!
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, ''ਇਹ ਡਰ ਬਣਿਆ ਰਹਿੰਦਾ ਹੈ ਕਿ ਤਕਨੀਕ ਗ਼ਲਤ ਫ਼ੈਸਲੇ ਲੈ ਸਕਦੀ ਹੈ। ਇਹ ਅਜਿਹੇ ਲੋਕਾਂ ਦੀ ਜਾਨ ਲੈ ਸਕਦੀ ਹੈ, ਜਿਨ੍ਹਾਂ ਦੀ ਜਾਨ ਨਹੀਂ ਜਾਣੀ ਚਾਹੀਦੀ। ਇਸ ਬਾਰੇ ਵਿੱਚ ਜ਼ਿਕਰ ਕਰਨਾ ਸਹੀ ਵੀ ਹੈ। ਜੇ ਸੈਨਿਕ ਇੱਕ ਇਨਸਾਨ ਹੋਵੇ ਤਾਂ ਆਪਣੇ ਨਿਸ਼ਾਨੇ ਅਤੇ ਮਸੂਮ ਲੋਕਾਂ ਦਰਮਿਆਨ ਫ਼ਰਕ ਕਰਨ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਉਸਦੀ ਹੁੰਦੀ ਹੈ। ਪਰ ਇੱਕ ਮਸ਼ੀਨ ਹਮੇਸ਼ਾਂ ਕਾਮਯਾਬੀ ਦੇ ਨਲਾ ਅਜਿਹਾ ਅੰਦਰ ਨਹੀਂ ਕਰ ਸਕੇਗੀ।''
ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, '' ਹੁਣ ਸਵਾਲ ਹੈ ਕਿ ਇਸ ਨੂੰ ਲੈ ਕੇ ਕਿੰਨਾ ਖ਼ਤਰਾ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਕੁਝ ਲੋਕ ਕਹਿਣਗੇ ਕਿ ਜੋਖ਼ਮ ਦੀ ਗੁੰਜਾਇਸ਼ ਨਾ ਦੇ ਬਰਾਬਰ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਮੈਂ ਇਸ ਵਿਚਾਰ ਨਾਲ ਸਹਿਮਤ ਨਹੀਂ ਹਾਂ। ਮੇਰੀ ਰਾਇ ਵਿੱਚ ਤਕਨੀਕ ਨੂੰ ਉਸੇ ਸਮੇਂ ਇਸਤੇਮਾਲ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਜਦੋਂ ਉਸ ਦੇ ਇਸਤੇਮਾਲ ਨਾਲ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਨਾ ਲੈ ਰਹੇ ਨਾਗਰਿਕਾਂ ਨੂੰ ਇਨਸਾਨੀ ਸੈਨਾ ਦੇ ਮੁਕਾਬਲੇ ਘੱਟ ਖ਼ਤਰਾ ਹੋਵੇ।''
ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਤੁਸੀਂ ਅਜਿਹੀ ਸਥਿਤੀ ਦੀ ਕਲਪਨਾ ਕਰੋ ਜਿੱਥੇ ਇੱਕ ਫ਼ਾਈਟਰ ਪਲੇਨ ਵਿੱਚ ਇੱਕ ਪਾਇਲਟ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੇ ਕੋਲ 20 ਜਾਂ 30 ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਹਨ।
ਉਹ ਅਸਮਾਨ ਵਿੱਚ ਜਿਸ ਜਗ੍ਹਾ ਹੈ, ਉਥੇ ਦੁਸ਼ਮਣ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਕੋਈ ਨਹੀਂ ਹੈ। ਤੁਸੀਂ ਦੇਖੋਂਗੇ ਕਿ ਅਜਿਹੀ ਜਗ੍ਹਾ ਸਵੈਚਾਲਕ ਸਿਸਟਮ ਕਿਸ ਤਰ੍ਹਾਂ ਸਫ਼ਲਤਾ ਨਾਲ ਵਾਰ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਰੱਖਿਅਤ ਵੀ ਹੈ ਕਿਉਂਕਿ ਇੱਥੇ ਕੋਈ ਸਿਵੀਲੀਅਨ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਨਹੀਂ ਹਨ।"
ਸਵੈਚਾਲਕ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਹੋਰ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਜ਼ਿਆਦਾਤਰ ਰਸਮੀ ਹੈ। ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਜਿੰਨ ਬੋਤਲ ਵਿੱਚੋਂ ਬਾਹਰ ਆ ਚੁੱਕਿਆ ਹੈ। ਜੇ ਤੁਸੀਂ ਅਜਿਹੇ ਹਥਿਆਰ ਨਹੀਂ ਬਣਾਉਂਦੇ ਤਾਂ ਨਾ ਬਣਾਓ ਤੁਹਾਡੇ ਦੁਸ਼ਮਣ ਤਾਂ ਬਣਾਉਣਗੇ ਹੀ।

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਕੀ ਹੋਵੇਗੀ ਰਣਨੀਤੀ?
ਟੌਮ ਸਿਮਪਸਨ ਕਹਿੰਦੇ ਹਨ, "ਜਦੋਂ ਅਜਿਹੇ ਹਥਿਆਰਾਂ 'ਤੇ ਪਾਬੰਦੀ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਫ਼ਿਰ ਸਵੈ ਕਾਬੂ ਦੀ ਵਕਾਲਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਇਹ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ 20 ਸਾਲ ਬਾਅਦ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਹੋਵੇਗੀ?"
ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਅਜਿਹੇ ਦੇਸ ਹੋਣਗੇ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਸਵੈਚਾਲਕ ਪ੍ਰਣਾਲੀ ਹੋਵੇਗੀ ਅਤੇ ਸਾਡੀ ਸੈਨਾ ਕੋਲ ਬਚਾਅ ਲਈ ਅਜਿਹੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋਵੇਗੀ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਉਸ ਸਥਿਤੀ ਵਿੱਚ ਲੋਕ ਸਰਕਾਰਾਂ ਨੂੰ ਕਹਿਣਗੇ ਕਿ ਸਵੈਕਾਬੂ ਦਾ ਫ਼ੈਸਲਾ ਗ਼ਲਤ ਸੀ। ਸਰਕਾਰ ਦਾ ਪਹਿਲਾ ਫ਼ਰਜ਼ ਦੇਸ ਨੂੰ ਸੁਰੱਖਿਅਤ ਕਰਨ ਦਾ ਹੈ। ਜੋ ਜ਼ਿੰਮੇਵਾਰ ਸਰਕਾਰਾਂ ਹਨ ਉਹ 'ਨੋ ਫ਼ਸਟ ਯੂਜ਼ ਪਾਲਿਸੀ' ਯਾਨੀ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦਾ ਪਹਿਲਾਂ ਇਸਤੇਮਾਲ ਨਾ ਕਰਨ ਦੀ ਨੀਤੀ ਅਪਣਾ ਸਕਦੀਆਂ ਹਨ।"
ਇਹ ਉਹ ਹੀ ਰਣਨੀਤੀ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਵੀਹਵੀਂ ਸਦੀ ਦੀ ਪਰਮਾਣੂ ਹਥਿਆਰਾਂ ਦੀ ਹੋੜ ਯਾਦ ਦਵਾ ਸਕਦੀ ਹੈ।
ਪਰ ਇੱਕ ਹੋਰ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?
ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਟੌਮ ਕਹਿੰਦੇ ਹਨ, "ਚਲੋ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰਦੇ ਹਾਂ ਜਿਸ ਵਿੱਚ ਨੈਨੋ ਜਾਂ ਫ਼ਿਰ ਮਾਈਕਰੋ ਤਕਨੀਕ ਦਾ ਇਸਤੇਮਾਲ ਹੋਇਆ ਹੈ ਅਤੇ ਉਸ ਦੇ ਜ਼ਰੀਏ ਇੱਕ ਇਲਾਕੇ ਵਿੱਚ 20 ਤੋਂ 50 ਹਜ਼ਾਰ ਤੱਕ ਉਪਕਰਣ ਤਾਇਨਾਤ ਹਨ। ਇਸ ਸਥਿਤੀ ਵਿੱਚ ਅਜਿਹਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਕੋਈ ਇਨਸਾਨ ਯਾਂ ਫ਼ਿਰ ਇਨਸਾਨਾਂ ਦਾ ਦਸਤਾ ਉਸਦਾ ਮੁਕਾਬਲਾ ਕਰ ਸਕੇ।"
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਉਸ ਦੇ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਡੇ ਕੋਲ ਚਾਹੇ ਇਕਦਮ ਉਸ ਤਰ੍ਹਾਂ ਦਾ ਸਿਸਟਮ ਨਾ ਹੋਵੇ ਪਰ ਤੁਹਾਨੂੰ ਕਿਸੇ ਤਰ੍ਹਾਂ ਦੇ ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਦੀ ਲੋੜ ਹੋਵੇਗੀ।"

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਪਾਬੰਦੀ ਦੀ ਮੰਗ
ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅਜਿਹੇ ਸਿਸਟਮ ਜ਼ਰੀਏ ਹੀ ਸਾਹਮਣੇ ਮੋਜੂਦ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਪਰ ਸਾਫ਼ਟਵੇਅਰ ਇੰਜੀਨੀਅਰ ਲੌਰਾ ਨੋਲੈਨ ਵੱਖਰੀ ਰਾਇ ਰੱਖਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਲੋਕ ਅਜਿਹਾ ਸੋਚਦੇ ਹਨ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਜੰਗ ਰੋਬੋਟਾਂ ਦਰਮਿਆਨ ਹੋਵੇਗੀ। ਰੋਬੋਟ ਸੈਨਿਕ ਲੜਨਗੇ ਤਾਂ ਅਜਿਹੀ ਜੰਗ ਵਿੱਚ ਖ਼ੂਨ ਨਹੀਂ ਵਹੇਗਾ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਹ ਇੱਕ ਆਦਰਸ਼ਵਾਦੀ ਕਲਪਨਾ ਹੈ। ਅਸੀਂ ਜ਼ਿਆਦਾਤਰ ਮੌਕਿਆਂ 'ਤੇ ਅਜਿਹੀ ਸਥਿਤੀ ਦੇਖਾਂਗੇ ਕਿ ਇੰਨਾਂ ਮਸ਼ੀਨਾਂ ਨੂੰ ਇਨਸਾਨਾਂ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤਾਇਨਾਤ ਕੀਤਾ ਗਿਆ ਹੈ ਇਹ ਕਾਫ਼ੀ ਦਰਦਨਾਕ ਸਥਿਤੀ ਹੋਵੇਗੀ।"
ਲੌਰਾ ਨੋਲੈਨ ਟੇਕ ਕੰਪਨੀ 'ਗੂਗਲ' ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਨ। ਸਾਲ 2017 ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੂੰ ਅਮਰੀਕੀ ਸੁਰੱਖਿਆ ਵਿਭਾਗ ਦੇ ਨਾਲ ਇੱਕ ਪ੍ਰੋਜੈਕਟ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ।
ਇਸ ਪ੍ਰੋਜੈਕਟ ਵਿੱਚ ਡਰੋਨ ਨਾਲ ਲਏ ਗਏ ਵੀਡੀਓ ਫ਼ੁਟੇਜ਼ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਵਾਲੇ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨੇ ਸਨ। ਇਹ ਹਥਿਆਰ ਵਿਕਸਿਤ ਕਰਨ ਦਾ ਪ੍ਰੋਜੈਕਟ ਨਹੀਂ ਸੀ।
ਪਰ ਲੌਰਾ ਇਸ ਨੂੰ ਲੈ ਕਿ ਫ਼ਿਕਰਮੰਦ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਦਾ ਸੀ ਕਿ ਉਹ ਇੱਕ ਅਜਿਹੀ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹਨ ਜਿਸਦਾ ਰਸਤਾ ਕਿਤੇ ਨਾ ਕਿਤੇ ਜੰਗ ਵੱਲ ਜਾਂਦਾ ਹੈ।
ਉਨ੍ਹਾਂ ਨੇ ਇਸਦੇ ਵਿਰੋਧ ਵਿੱਚ ਅਸਤੀਫ਼ਾ ਦੇ ਦਿੱਤਾ। ਇਸ ਦੇ ਬਾਅਦ ਉਹ ''ਕਿਲਰ ਰੋਬੇਟ'' ਨੂੰ ਰੋਕਣ ਲਈ ਇੱਕ ਮੁਹਿੰਮ ਵਿੱਚ ਲੱਗ ਗਏ।
ਉਨ੍ਹਾਂ ਦੀ ਰਾਇ ਵਿੱਚ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦੇ ਮੂਲ ਵਿੱਚ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਕੰਪਿਊਟਰ ਅਤੇ ਇਨਸਾਨਾਂ ਦੇ ਸੋਚਣ ਦਾ ਤਰੀਕਾ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ।
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ, ''ਕੰਪਿਊਟਰ ਗਣਨਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਵਿੱਚ ਪਰਖ਼ ਕਰਕੇ ਫ਼ੈਸਲਾ ਲੈਣ ਦੀ ਖ਼ਾਸੀਅਤ ਹੁੰਦੀ ਹੈ। ਗਣਨਾ ਠੋਸ ਅੰਕੜਿਆਂ 'ਤੇ ਅਧਾਰਤ ਹੈ।ਜਦੋਂ ਕਿ ਪਰਖ਼ਕੇ ਫ਼ੈਸਲਾ ਲੈਂਦੇ ਸਮੇਂ, ਬਹੁਤ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ।''
ਉਹ ਕਹਿੰਦੇ ਹਨ, '' ਜੇ ਅਸੀਂ ਉਦਾਹਰਣ ਦੇ ਕੇ ਸਮਝਾਈਏ ਤਾਂ ਸਾਡੇ ਵਿੱਚੋਂ ਬਹੁਤੇ ਲੋਕ ਕਿਸੇ ਅਦਾਲਤ ਵਿੱਚ ਕਿਸੇ ਰੋਬੋਟ ਜੱਜ ਦੇ ਸਾਹਮਣੇ ਆਉਣਾ ਪਸੰਦ ਨਹੀਂ ਕਰਨਗੇ ਜੋ ਕਾਨੂੰਨ ਨੂੰ ਇੱਕ ਖ਼ਾਸ ਤਰੀਕੇ ਨਾਲ ਲਾਗੂ ਕਰਦਾ ਹੋਵੇ।''

ਤਸਵੀਰ ਸਰੋਤ, Press association
ਤਕਨੀਕ ਦੀਆਂ ਸਮੱਸਿਆਵਾਂ
ਦਿੱਕਤ ਇਹ ਹੈ ਕਿ ਜੰਗ ਦੇ ਮੈਦਾਨ ਦਾ ਕੋਈ ਵੀ ਇਲਾਕਾ ਅਜਿਹਾ ਹੋਵੇ ਜਿੱਥੇ ਸਿਵੀਲਅਨਜ਼ ਦੀ ਆਬਾਦੀ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਹੋਵੇ, ਉਹ ਸੰਘਰਸ਼ ਦੇ ਲਿਹਾਜ਼ ਨਾਲ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਖੇਤਰ ਹੁੰਦਾ ਹੈ। ਉਥੇ ਕਾਫ਼ੀ ਮੁਸ਼ਕਲ ਫੈਸਲੇ ਲੈਣੇ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਹੀ ਪਰਖ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮਸ਼ੀਨ ਦੇ ਸਾਫ਼ਟਵੇਅਰ ਨੂੰ ਜਿੰਨਾਂ ਹਾਲਾਤ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਗਿਆ ਹੁੰਦਾ ਹੈ, ਜੇ ਉਨ੍ਹਾਂ ਤੋਂ ਅਲੱਗ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਉਂਦੀਆਂ ਹਨ ਤਾਂ ਹਾਲਾਤ ਬਹੁਤ ਹੀ ਅਨਿਸ਼ਚਿਤ ਜਿਹੇ ਹੋ ਸਕਦੇ ਹਨ।
ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਪ੍ਰੀਸਿਥੀਤੀਆਂ ਦੇ ਮੁਤਬਾਕ ਖ਼ੁਦ ਨੂੰ ਢਾਲਕੇ ਫ਼ੈਸਲਾ ਲੈ ਸਕਦੇ ਹਨ। ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਬਗ਼ੈਰ ਡਰਾਈਵਰ ਦੀ ਤਕਨੀਕ ਵਿੱਚ ਅਜਿਹੀ ਹੀ ਦਿੱਕਤ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ।
ਸਾਲ 2018 ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਊਬਰ ਦੀ ਇੱਕ ਸਵੈਚਾਲਕ ਕਾਰ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਸਾਈਕਲ 'ਤੇ ਕੋਲੋਂ ਲੰਘ ਰਹੀ ਇੱਕ ਔਰਤ ਨਾਲ ਟਕਰਾ ਗਈ ਸੀ। ਇਸ ਹਾਦਸੇ ਵਿੱਚ ਔਰਤ ਦੀ ਮੌਤ ਹੋ ਗਈ ਸੀ।
ਜਾਂਚ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਕਾਰ ਦਾ ਸਿਸਟਮ ਔਰਤ ਅੇਤ ਸਾਇਕਲ ਨੂੰ ਅਜਿਹੇ ਸੰਭਾਵਿਤ ਖ਼ਤਰੇ ਦੇ ਤੌਰ 'ਤੇ ਪਛਾਣ ਨਹੀਂ ਸਕਿਆ ਜਿਸ ਨਾਲ ਕਾਰ ਟਕਰਾ ਸਕਦੀ ਹੈ।
ਲੌਰਾ ਦਾ ਤਰਕ ਹੈ ਕਿ ਆਟੋਨਮਸ ਹਥਿਆਰਾਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਸਥਿਤੀਆਂ ਹੋਰ ਵੀ ਜ਼ਿਆਦਾ ਗੁੰਝਲਦਾਰ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਕਿਉਂਕਿ ਜੰਗ ਆਪਣੇ ਆਪ ਵਿੱਚ ਇੱਕ ਗੁੰਝਲਦਾਰ ਸਥਿਤੀ ਹੁੰਦੀ ਹੈ। ਲੌਰਾ ਮੁਤਾਬਕ ਇਥੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਜੁੜਿਆ ਸਵਾਲ ਵੀ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਨਾਲ ਅਜਿਹਾ ਕੁਝ ਹੋ ਜਾਵੇ ਜਿਸ ਨਾਲ ਯੁੱਧ ਅਪਰਾਧ ਦੀ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਰੱਖਿਆ ਜਾਵੇ ਤਾਂ ਜਵਾਬਦੇਹੀ ਕਿਸ ਦੀ ਹੋਵਗੀ? ਕੀ ਜਵਾਬਦੇਹੀ ਉਸ ਕਮਾਂਡਰ ਦੀ ਹੋਵੇਗੀ ਜਿਸ ਨੇ ਹਥਿਆਰ ਤਾਇਨਾਤ ਕਰਨ ਦਾ ਹੁਕਮ ਦਿੱਤਾ।"
ਸ਼ਾਇਦ ਨਹੀਂ ਕਿਉਂਕਿ ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਹਥਿਆਰ ਨੇ ਅਜਿਹਾ ਕੁਝ ਨਾ ਕੀਤਾ ਹੋਵੇ। ਅਜਿਹਾ ਹੋਣ ਦੀ ਕਲਪਨਾ ਸ਼ਾਇਦ ਇੰਜੀਨੀਅਰਾਂ ਨੇ ਵੀ ਨਾ ਕੀਤੀ ਹੋਵੇ। ਅਜਿਹੀ ਸਥਿਤੀ ਵਿੱਚ ਇੰਜੀਨੀਅਰਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ਤੈਅ ਕਰਨਾ ਵੀ ਔਖਾ ਹੋਵੇਗਾ।"
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸਮਝ ਵਿੱਚ ਇੰਨਾਂ ਹਥਿਆਰਾਂ 'ਤੇ ਹਰ ਹਾਲ ਵਿੱਚ ਪਾਬੰਦੀ ਲਗਾਈ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ।

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਖ਼ਤਰੇ ਹੀ ਖ਼ਤਰੇ
ਉੱਧਰ, ਸੈਂਟਰ ਫ਼ਾਰ ਨਿਊ ਅਮੈਰੀਕਨ ਸਕਿਊਰਿਟੀ ਵਿੱਚ ਡਾਇਰੈਕਟਰ ਆਫ਼ ਤਕਨੀਕ ਪੌਲ ਸ਼ੌਰੀ ਅਜਿਹੀ ਤਕਨੀਕ ਨਾਲ ਜੁੜੇ ਵੱਖਰੇ ਪਰ ਗੰਭੀਰ ਸਵਾਲ ਖੜੇ ਕਰਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਵਿਕਾਸ ਦੇ ਨਾਲ ਤਕਨੀਕ ਸਾਨੂੰ ਅਜਿਹੇ ਰਾਹ 'ਤੇ ਲਾ ਜਾ ਰਹੀ ਹੈ ਜਿੱਥੇ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾ ਜੁੜੇ ਫ਼ੈਸਲੇ ਮਸ਼ੀਨਆਂ ਦੇ ਹਵਾਲੇ ਹੋ ਜਾਣਗੇ ਅਤੇ ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਨਸਾਨੀਅਤ ਦੇ ਸਾਹਮਣੇ ਇਹ ਇੱਕ ਗੰਭੀਰ ਸਵਾਲ ਹੈ।"
ਪੌਲ ਪੈਂਟਾਗਨ ਵਿੱਚ ਪਾਲਿਸੀ ਐਨਾਲਿਸਟ ਰਹਿ ਚੁੱਕੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੇ ਕਿਤਾਬ ਵੀ ਲਿਖੀ ਹੈ, 'ਆਰਮੀ ਆਫ਼ ਨਨ, ਆਟੋਨੋਮਸ ਵੈਪਨਸ ਐਂਡ ਦਾ ਫ਼ਿਊਚਰ ਆਫ਼ ਵਾਰ'। ਕੀ ਭਵਿੱਖ ਦੀ ਜੰਗ ਵਿੱਚ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾਲ ਜੁੜੇ ਫ਼ੈਸਲੇ ਰੋਬੋਟ ਕਰਨਗੇ, ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਹਾਲੇ ਵੀ ਅਜਿਹੀਆਂ ਮਸ਼ੀਨਾਂ ਮੋਜੂਦ ਹਨ।
ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ ਪਹਿਲਾਂ ਤੋਂ ਕੀਤੀ ਗਈ ਪ੍ਰੋਗਰਾਮਿੰਗ ਜ਼ਰੀਏ ਡਰੋਨ ਖ਼ੁਦ ਹੀ ਉਡਾਨ ਭਰਦੇ ਹਨ। ਉਹ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਰੋਬੋਟ ਦੇ ਕੋਲ ਕਦੀ ਵੀ ਇੰਨੀ ਬੌਧਿਕ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋ ਸਕਦੀ ਕਿ ਉਹ ਜੰਗ ਦੇ ਨਾਲ ਜੁੜੇ ਰਣਨੀਤਿਕ ਅਤੇ ਜ਼ਮੀਨੀ ਖ਼ਤਰਿਆਂ ਨੂੰ ਸਮਝ ਸਕੇ।
ਪੌਲ ਸ਼ਾਰੀ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਹਾਲ ਹੀ ਵਿੱਚ ਕੁਝ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਈਆਂ ਹਨ। ਸੀਰੀਆ ਦੇ ਅਸਮਾਨ ਵਿੱਚ ਉਡਾਣ ਭਰਦੇ ਰੂਸ ਅਤੇ ਅਮਰੀਕਾ ਦੇ ਲੜਾਕੂ ਜਹਾਜ਼ ਜੋ ਜ਼ਮੀਨ 'ਤੇ ਅਭਿਆਸ ਕਰ ਰਹੀਆਂ ਸੈਨਿਕਾਂ ਦੀ ਮਦਦ ਕਰ ਰਹੇ ਸਨ। ਬੀਤੇ ਸਾਲ ਚੀਨ ਅਤੇ ਭਾਰਤ ਦੀਆਂ ਸੈਨਾਵਾਂ ਦਰਮਿਆਨ ਹੋਈ ਝੜਪ। ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਸੈਨਿਕ ਵਿਵਾਦਾਂ ਦਰਮਿਆਨ ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਤਾਇਨਾਤ ਹੋਣ ਤਾਂ ਵੱਡੇ ਜੋਖ਼ਮ ਦਾ ਡਰ ਰਹਿੰਦਾ ਹੈ। ਜੇ ਅਜਿਹੇ ਹਥਿਆਰ ਗ਼ਲਤ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾ ਲਗਾਉਂਦੇ ਹਨ ਤਾਂ ਜੰਗ ਜ਼ਿਆਦਾ ਭੜਕ ਸਕਦੀ ਹੈ।"
ਪੌਲ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਕਾਟ ਮਾਰਕਿਟ ਵਿੱਚ ਸੁਪਰ ਹਿਊਮਨ ਦੀ ਰਫ਼ਤਾਰ ਵਿੱਚ ਸ਼ੇਅਰ ਖ਼ਰੀਦਨ ਅਤੇ ਵੇਚਣ ਲਈ ਕੰਪਿਊਟਰ ਦਾ ਇਸਤੇਮਾਲ ਹੁੰਦਾ ਹੈ। ਸਭ ਨੇ ਇਸਦੇ ਜੋਖ਼ਮ ਨੂੰ ਦੇਖਿਆ ਹੈ।
ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿਉਂਕਿ ਮਸ਼ੀਨਾਂ ਇਹ ਸਭ ਕੁਝ ਮਿਲੀਸੈਕਿੰਡ ਜਿੰਨੇ ਘੱਟ ਸਮੇਂ ਵਿੱਚ ਕਰ ਦਿੰਦੀਆਂ ਹਨ।
ਅਜਿਹਾ ਹੀ ਜੰਗ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਵੀ ਹੋ ਸਕਦਾ ਹੈ। ਪਲਕ ਝਪਕਣ ਦੀ ਦੇਰੀ ਵਿੱਚ ਦੋ ਪੱਖਾਂ ਦੀਆਂ ਮਸ਼ੀਨਾ ਦਰਮਿਆਨ ਗੋਲੀਬਾਰੀ ਦੇਖਣ ਨੂੰ ਮਿਲ ਸਕਦੀ ਹੈ। ਸਥਿਤੀਆਂ ਉਸ ਸਮੇਂ ਹੋਰ ਵੀ ਭਿਆਨਕ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜਦੋਂ ਦੁਸ਼ਮਣ ਤੁਹਾਡੇ ਹਥਿਆਰਾਂ ਦਾ ਮੂੰਹ ਤੁਹਾਡੇ ਵੱਲ ਹੀ ਮੋੜ ਦੇਵੇ।
ਪੌਲ ਕਹਿੰਦੇ ਹਨ, "ਅਜਿਹਾ ਬਿਲਕੁਲ ਹੋ ਸਕਦਾ ਹੈ। ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨੂੰ ਹੈਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਸੈਨਾ ਵੀ ਉਸੇ ਤਰ੍ਹਾਂ ਦੇ ਅਸੁਰੱਖਿਅਤ ਕੰਪਿਊਟਰਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕਰਦੀ ਹੈ ਜਿਸ ਤਰ੍ਹਾਂ ਦੇ ਸਾਰੇ ਲੋਕ ਕਰਦੇ ਹਨ। ਖ਼ੁਦ ਚਲਣ ਵਾਲੀਆਂ ਕਾਰਾਂ ਹੈਕ ਕੀਤੀਆਂ ਜਾ ਚੁੱਕੀਆਂ ਹਨ।"
"ਅਸੀਂ ਇਹ ਦੇਖ ਚੁੱਕੇ ਹਾਂ ਕਿ ਹੈਕਰਸ ਦੂਰ ਬੈਠਕੇ ਵੀ ਕਾਰ ਦਾ ਸਟੇਅਰਿੰਗ ਅਤੇ ਬ੍ਰੇਕ ਕਾਬੂ ਕਰ ਸਕਦੇ ਹਨ। ਪਰ ਜੇ ਕੋਈ ਹੈਕਰ ਹਥਿਆਰਾਂ 'ਤੇ ਕਾਬੂ ਕਰ ਲੈਂਦਾ ਹੈ ਤਾਂ ਨੁਕਸਾਨ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਹੋ ਸਕਦਾ ਹੈ।"
ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ 'ਕਿਲਰ ਰੋਬੋਟ' ਨਾਲ ਜੁੜੇ ਕੁਝ ਹੋਰ ਸਵਾਲ ਵੀ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮੰਨ ਲੈਂਦੇ ਹਾਂ ਕਿ ਮਸ਼ੀਨਾਂ ਸਹੀ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾਂ ਲਗਾਉਂਦੀਆਂ ਹਾਨ ਤਾਂ ਵੀ ਜਾਨ ਦਾ ਨੁਕਸਾਨ ਹੋਵੇਗਾ ਉਸ ਲਈ ਕੋਈ ਇਨਸਾਨ ਜਵਾਬਦੇਹ ਨਹੀਂ ਹੋਵੇਗਾ।
'ਸਵਾਲ ਇਹ ਵੀ ਹੈ ਕਿ ਜੇ ਕੋਈ ਜੰਗ ਦਾ ਬੋਝ ਆਪਣੇ ਮੋਢਿਆਂ 'ਤੇ ਨਹੀਂ ਲੈਂਦਾ ਤਾਂ ਅਸੀਂ ਸਮਾਜ ਵਿੱਚ ਕੀ ਕਹਾਂਗੇ? ਅਸੀਂ ਇਨਸਾਨ ਨੂੰ ਕੀ ਜਵਾਬ ਦੇਵਾਂਗੇ?'
ਇੰਨਾਂ ਤੈਅ ਹੈ ਕਿ ਅੱਜ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਲੈ ਰਹੀਆਂ ਮਸ਼ੀਨਾਂ ਦੀ ਅੱਗੇ ਵੀ ਭੂਮਿਕਾ ਬਣੀ ਰਹੇਗੀ।

ਤਸਵੀਰ ਸਰੋਤ, Getty Images
ਪਰ ਕੀ ਅਸੀਂ ਤਕਨੀਕ ਦੀਆਂ ਹੱਦਾਂ ਸਮਝ ਸਕਾਂਗੇ?
ਮਸ਼ੀਨਾਂ ਨੂੰ ਫ਼ੈਸਲਾ ਲੈਣ ਦੇ ਕਿੰਨੇ ਅਧਿਕਾਰ ਦਿੱਤੇ ਜਾਣਗੇ?
ਭਵਿੱਖ ਵਿੱਚ ਕੀ ਹੋਵੇਗਾ, ਇਸ ਸਵਾਲ ਦਾ ਜਵਾਬ ਇਹੀ ਹੀ ਹੈ ਕਿ ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ।
ਇਹ ਵੀ ਪੜ੍ਹੋ:
ਇਸ ਲੇਖ ਵਿੱਚ Google YouTube ਤੋਂ ਮਿਲੀ ਸਮੱਗਰੀ ਸ਼ਾਮਲ ਹੈ। ਕੁਝ ਵੀ ਡਾਊਨਲੋਡ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਅਸੀਂ ਤੁਹਾਡੀ ਇਜਾਜ਼ਤ ਮੰਗਦੇ ਹਾਂ ਕਿਉਂਕਿ ਇਸ ਵਿੱਚ ਕੁਕੀਜ਼ ਅਤੇ ਦੂਜੀਆਂ ਤਕਨੀਕਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕੀਤਾ ਹੋ ਸਕਦਾ ਹੈ। ਤੁਸੀਂ ਸਵੀਕਾਰ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ Google YouTube ਕੁਕੀ ਪਾਲਿਸੀ ਤੇ ਨੂੰ ਪੜ੍ਹਨਾ ਚਾਹੋਗੇ। ਇਸ ਸਮੱਗਰੀ ਨੂੰ ਦੇਖਣ ਲਈ ਇਜਾਜ਼ਤ ਦੇਵੋ ਤੇ ਜਾਰੀ ਰੱਖੋ ਨੂੰ ਚੁਣੋ।
End of YouTube post, 2












