You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ
ਇਰਾਨ ਦੀ ਰਾਜਧਾਨੀ ਤਹਿਰਾਨ
ਵਿਗਿਆਨਿਕ ਮੋਹਸਿਨ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀਆਂ ਗੱਡੀਆਂ ਦਾ ਕਾਫ਼ਲਾ ਰਾਜਧਾਨੀ ਦੇ ਬਾਹਰੀ ਇਲਾਕੇ ਵਿੱਚੋਂ ਲੰਘ ਰਿਹਾ ਸੀ।
ਉਹ ਇਰਾਨ ਦੇ ਸਭ ਤੋਂ ਸੀਨੀਅਰ ਪਰਮਾਣੂ ਵਿਗਿਆਨਿਕ ਮੰਨੇ ਜਾਂਦੇ ਸਨ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਪਹਿਰੇ ਵਿੱਚ ਰਹਿੰਦੇ ਸਨ।
ਕੁਝ ਦੇਰ ਬਾਅਦ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀ ਗੱਡੀ 'ਤੇ ਹਮਲਾ ਹੋਇਆ। ਜ਼ਬਰਦਸਤ ਗੋਲੀ ਬਾਰੀ ਹੋਈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਮੌਤ ਹੋ ਗਈ। ਇਹ ਕੋਈ ਸਧਾਰਨ ਹਮਲਾ ਨਹੀਂ ਸੀ।
ਮੌਕੇ 'ਤੇ ਮੌਜੂਦ ਰਹੇ ਇੱਕ ਸੀਨੀਅਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਉਥੇ ਕੋਈ ਹਮਲਾਵਰ ਨਹੀਂ ਸੀ। ਗੋਲੀਆਂ ਇੱਕ ਕਾਰ ਵਿੱਚ ਲੱਗੀ ਮਸ਼ੀਨਗੰਨ ਨਾਲ ਚਲਾਈਆਂ ਗਈਆਂ ਪਰ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਚਲਾਉਣ ਵਾਲਾ ਕੋਈ ਨਹੀਂ ਸੀ।
ਇਹ ਵੀ ਪੜ੍ਹੋ
ਈਰਾਨ ਦੇ ਇੱਕ ਹੋਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜ਼ਰੀਏ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾ ਰਿਹਾ ਸੀ।
'ਕੰਪਿਊਟਰ ਨਾਲ ਕਾਬੂ ਹੋਣ ਵਾਲੀ ਮਸ਼ੀਨਗੰਨ'। ਇਹ ਹੌਲੀਵੁੱਡ ਦੀ ''ਕਿਲਰ ਰੋਬੋਟ'' ਸੀਰੀਜ਼ ਵਾਲੀਆਂ ਫ਼ਿਲਮਾਂ ਤੋਂ ਪ੍ਰੇਰਿਤ ਕਹਾਣੀ ਦਾ ਹਿੱਸਾ ਲਗਦਾ ਹੈ।
ਜਿਥੇ ਇੱਕ ਅਜਿਹੀ ਮਸ਼ੀਨ ਹੈ, ਜੋ ਸੋਚ ਸਕਦੀ ਹੈ ਅਤੇ ਨਿਸ਼ਾਨਾਂ ਸਾਧ ਕੇ ਗੋਲੀ ਵੀ ਚਲਾ ਸਕਦੀ ਹੈ।
ਪਰ ਕੀ ਅਜਿਹਾ ਸੰਭਵ ਹੈ? ਜੇ ਹੈ ਤਾਂ ਇੱਕ ਹੋਰ ਸਵਾਲ ਖੜਾ ਹੁੰਦਾ ਹੈ ਕਿ ਕੀ ਆਉਣ ਵਾਲੇ ਦਿਨਾਂ ਵਿੱਚ ਜੰਗ ਵਿੱਚ ਵੀ ਸੈਨਿਕਾਂ ਦੀ ਜਗ੍ਹਾ ਹੁਣ ਰੋਬੋਟ ਆਹਮਣੇ-ਸਾਹਮਣੇ ਹੋਣਗੇ?
ਜੰਗ 'ਚ ਲੜਨਗੇ ਰੋਬੋਟ?
ਅਮਰੀਕਾ ਦੀ ਜਾਨ ਹਾਪਿਨਸ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਸੀਨੀਅਰ ਰਿਸਰਚ ਐਨਾਲਿਸਟ ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਸ ਦੇ ਕੋਲ ਇਹ ਸਮਰੱਥਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਮਨੁੱਖੀ ਮਦਦ ਜਾਂ ਨਿਰਦੇਸ਼ ਦੇ ਬਿਨਾਂ ਆਪਣੇ ਟੀਚੇ ਤੈਅ ਕਰੇ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕੇ।''
ਇਥੇ ਇਹ ਸਮਝਣਾ ਹੋਵੇਗਾ ਕਿ ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ 'ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ 'ਆਟੋਨੋਮਸ'। ਯਾਨੀ ਮਸ਼ੀਨ ਨੂੰ ਖ਼ੁਦ ਫ਼ੈਸਲੇ ਲੈਣ ਦੀ ਤਾਕਤ ਦੇਣਾ। ਇਸ ਨੂੰ ਲੈ ਕੇ ਬਹਿਸ ਹੁੰਦੀ ਰਹਿੰਦੀ ਹੈ।
ਇਨ੍ਹਾਂ ਹਥਿਆਰਾਂ ਦਾ ਦਾਇਰਾ ਵੀ ਕਾਫ਼ੀ ਵੱਡਾ ਹੈ। ਇਨ੍ਹਾਂ ਵਿੱਚ ਮੁੱਢਲੀ (ਪ੍ਰਾਇਮਰੀ) ਪੱਧਰ ਦੇ ਹਥਿਆਰਾਂ ਤੋਂ ਲੈ ਕੇ ਟਰਮੀਨੇਟਰ ਤੱਕ ਆਉਂਦੇ ਹਨ। ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅੱਜ ਵੀ ਅਜਿਹੇ ਹਥਿਆਰ ਮੌਜੂਦ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਸਾਡੇ ਕੋਲ ਸਮੁੰਦਰੀ ਸੁਰੰਗ, ਕਈ ਤਰ੍ਹਾਂ ਦੀਆਂ ਜ਼ਮੀਨੀ ਸੁਰੰਗਾਂ, ਸਾਈਬਰ ਤਕਨੀਕ ਅਤੇ ਸਾਈਬਰ ਹਥਿਆਰ ਹਨ ਜੋ ਆਟੋਨੋਮਸ ਹਨ। ਫ਼ਿਰ ਇਸਰਾਈਲ ਦੀ ਐਂਟੀ ਰੇਡੀਏਸ਼ਨ ਮਿਸਾਈਲ ਹੈਰੋਪ ਹੈ। ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਕਿ ਲੌਂਚ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ ਇਹ ਸਿਗਨਲ ਦੇ ਆਧਾਰ 'ਤੇ ਹਮਲਾ ਕਰਨ ਬਾਰੇ ਖ਼ੁਦ ਤੈਅ ਕਰਦੀ ਹੈ। ਤੁਸੀਂ ਪੈਟੀਅਲ ਮਿਸਾਈਲ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਕਰਦੇ ਹੋਏ ਆਟੋਮੈਟਿਕ ਮੋਡ ਵਿੱਚ ਤਾਇਨਾਤ ਕਰ ਸਕਦੇ ਹੋ।''
''ਕਿਲਰ ਰੋਬੋਟ'' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ 'ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ।
ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ''ਚੀਨ ਆਪਣੀ ਸੈਨਾ ਨੂੰ ਮਜ਼ਬੂਤ ਬਣਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ। ਉਹ ਆਪਣੀ ਜਲ ਸੈਨਾ ਲਈ ਜਹਾਜ਼ਾਂ ਅਤੇ ਪਣਡੁੱਬੀਆਂ ਨੂੰ ਸਵੈਚਾਲਕ ਬਣਾ ਰਹੇ ਹਨ।
ਇਸਰਾਈਲ ਜ਼ਮੀਨੀ ਹਥਿਆਰਾਂ ਮਸਲਨ ਟੈਂਕਾਂ ਅਤੇ ਤੋਪਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਿੱਚ ਲੱਗਿਆ ਹੋਇਆ ਹੈ।''
ਉਨ੍ਹਾਂ ਅੱਗੇ ਦੱਸਿਆ, '' ਰੂਸ ਵੀ ਜ਼ਮੀਨੀ ਉਪਕਰਣਾਂ 'ਤੇ ਕਾਫ਼ੀ ਰਕਮ ਖ਼ਰਚ ਕਰ ਰਿਹਾ ਹੈ। ਅਮਰੀਕਾ ਦੀ ਦਿਲਚਸਪੀ ਹਰ ਜਗ੍ਹਾ ਹੈ। ਏਅਰਫ਼ੋਰਸ, ਏਅਰਬੇਸ ਸਿਸਟਮ ਤੋਂ ਲੈ ਕੇ ਮਿਜ਼ਾਈਲ ਤੱਕ। ਯੂਕੇ ਵੀ ਆਪਣੀ ਹਵਾਈ ਸੈਨਾ ਅਤੇ ਜਲ ਸੈਨਾ ਦੀ ਸਮਰੱਥਾ ਵਧਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ।''
ਇਹ ਵੀ ਪੜ੍ਹੋ
ਮਾਹਰਾਂ ਦੀ ਚਿੰਤਾ
ਅਹਿਮ ਗੱਲ ਇਹ ਹੈ ਕਿ ਹਾਲੇ ਜੋ ਸਾਰੇ ਹਥਿਆਰ ਵਿਕਸਿਤ ਹੋ ਰਹੇ ਹਨ, ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਸਾਰੇ ਰੋਬੋਟ ਕਿਲਰ ਨਹੀਂ ਹੋਣਗੇ। ਪਰ ਕੁਝ ਹਥਿਆਰਾਂ ਅਤੇ ਦੇਸਾਂ ਨੂੰ ਲੈ ਕੇ ਹੈਦਰ ਫ਼ਿਕਰਮੰਦ ਨਜ਼ਰ ਆਉਂਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਪੱਛਮੀ ਦੇਸ ਜੋਖ਼ਮ ਨੂੰ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਨ। ਉਹ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਭਰਪੂਰ ਟੈਸਟ ਕਰਦੇ ਹਨ ਪਰ ਰੂਸ ਜਲਦੀ ਵਿਕਸਿਤ ਕੀਤੇ ਗਏ ਉਪਕਰਣਾਂ ਨੂੰ ਜ਼ਿਆਦਾ ਟੈਸਟਿੰਗ ਕੀਤੇ ਬਿਨਾ ਹੀ ਤਾਇਨਾਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਮੈਂ ਇਸੇ ਨੂੰ ਲੈ ਕੇ ਹੀ ਫ਼ਿਕਰਮੰਦ ਹਾਂ।"
ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ 'ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"
ਆਕਸਫ਼ੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਐਸੋਸੀਏਟ ਪ੍ਰੋਫ਼ੈਸਰ ਟੌਮ ਸਿੰਪਸਨ ਨੇ ਜੰਗ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਕਈ ਸਾਲ ਲਗਾਏ ਹਨ। ਉਹ ਪੰਜ ਸਾਲਾਂ ਤੱਕ ਯੂਕੇ ਦੀ ਸੈਨਾ ਨਾਲ ਜੁੜੇ ਰਹੇ ਹਨ। ਤਕਨੀਕੀ ਅਤੇ ਸੁਰੱਖਿਆ ਨਾਲ ਜੁੜੇ ਸਵਾਲਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਦਿਲਚਸਪੀ ਲਗਾਤਾਰ ਬਣੀ ਹੋਈ ਹੈ
ਜੰਗ ਵਰਗੇ ਖ਼ਤਰਨਾਕ ਮੋਰਚਿਆਂ 'ਤੇ ਇਨਸਾਨਾਂ ਦੀ ਬਜਾਇ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਵਿਚਾਰ 'ਤੇ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਇਸ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਅਜਿਹ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਸਰਕਾਰਾਂ ਦੀ ਨੈਤਿਕ ਧਰਾਤਲ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਸਰਕਾਰਾਂ ਦੀ ਇਹ ਜ਼ਿੰਮੇਵਾਰੀ ਹੈ ਕਿ ਆਪਣੇ ਸੈਨਿਕਾਂ ਦੀ ਜਾਨ ਬਚਾਉਣ ਲੀ ਉਹ ਅਜਿਹੇ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨ।''
ਪਰ ਟੌਮ ਸੁਚੇਤ ਕਰਦੇ ਹਨ ਕਿ ਇਸ ਤਕਨੀਕ ਦੇ ਖ਼ਤਰੇ ਵੀ ਹਨ।
ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨੂੰ ਆਪਣੇ ਐਂਡਰਾਇਡ ਫ਼ੋਨ 'ਤੇ ਇੰਝ ਲੈ ਕੇ ਆਓ:
ਮਸ਼ੀਨ ਕਰ ਸਕਦੀ ਹੈ ਗ਼ਲਤੀ!
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, ''ਇਹ ਡਰ ਬਣਿਆ ਰਹਿੰਦਾ ਹੈ ਕਿ ਤਕਨੀਕ ਗ਼ਲਤ ਫ਼ੈਸਲੇ ਲੈ ਸਕਦੀ ਹੈ। ਇਹ ਅਜਿਹੇ ਲੋਕਾਂ ਦੀ ਜਾਨ ਲੈ ਸਕਦੀ ਹੈ, ਜਿਨ੍ਹਾਂ ਦੀ ਜਾਨ ਨਹੀਂ ਜਾਣੀ ਚਾਹੀਦੀ। ਇਸ ਬਾਰੇ ਵਿੱਚ ਜ਼ਿਕਰ ਕਰਨਾ ਸਹੀ ਵੀ ਹੈ। ਜੇ ਸੈਨਿਕ ਇੱਕ ਇਨਸਾਨ ਹੋਵੇ ਤਾਂ ਆਪਣੇ ਨਿਸ਼ਾਨੇ ਅਤੇ ਮਸੂਮ ਲੋਕਾਂ ਦਰਮਿਆਨ ਫ਼ਰਕ ਕਰਨ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਉਸਦੀ ਹੁੰਦੀ ਹੈ। ਪਰ ਇੱਕ ਮਸ਼ੀਨ ਹਮੇਸ਼ਾਂ ਕਾਮਯਾਬੀ ਦੇ ਨਲਾ ਅਜਿਹਾ ਅੰਦਰ ਨਹੀਂ ਕਰ ਸਕੇਗੀ।''
ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, '' ਹੁਣ ਸਵਾਲ ਹੈ ਕਿ ਇਸ ਨੂੰ ਲੈ ਕੇ ਕਿੰਨਾ ਖ਼ਤਰਾ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਕੁਝ ਲੋਕ ਕਹਿਣਗੇ ਕਿ ਜੋਖ਼ਮ ਦੀ ਗੁੰਜਾਇਸ਼ ਨਾ ਦੇ ਬਰਾਬਰ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਮੈਂ ਇਸ ਵਿਚਾਰ ਨਾਲ ਸਹਿਮਤ ਨਹੀਂ ਹਾਂ। ਮੇਰੀ ਰਾਇ ਵਿੱਚ ਤਕਨੀਕ ਨੂੰ ਉਸੇ ਸਮੇਂ ਇਸਤੇਮਾਲ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਜਦੋਂ ਉਸ ਦੇ ਇਸਤੇਮਾਲ ਨਾਲ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਨਾ ਲੈ ਰਹੇ ਨਾਗਰਿਕਾਂ ਨੂੰ ਇਨਸਾਨੀ ਸੈਨਾ ਦੇ ਮੁਕਾਬਲੇ ਘੱਟ ਖ਼ਤਰਾ ਹੋਵੇ।''
ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਤੁਸੀਂ ਅਜਿਹੀ ਸਥਿਤੀ ਦੀ ਕਲਪਨਾ ਕਰੋ ਜਿੱਥੇ ਇੱਕ ਫ਼ਾਈਟਰ ਪਲੇਨ ਵਿੱਚ ਇੱਕ ਪਾਇਲਟ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੇ ਕੋਲ 20 ਜਾਂ 30 ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਹਨ।
ਉਹ ਅਸਮਾਨ ਵਿੱਚ ਜਿਸ ਜਗ੍ਹਾ ਹੈ, ਉਥੇ ਦੁਸ਼ਮਣ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਕੋਈ ਨਹੀਂ ਹੈ। ਤੁਸੀਂ ਦੇਖੋਂਗੇ ਕਿ ਅਜਿਹੀ ਜਗ੍ਹਾ ਸਵੈਚਾਲਕ ਸਿਸਟਮ ਕਿਸ ਤਰ੍ਹਾਂ ਸਫ਼ਲਤਾ ਨਾਲ ਵਾਰ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਰੱਖਿਅਤ ਵੀ ਹੈ ਕਿਉਂਕਿ ਇੱਥੇ ਕੋਈ ਸਿਵੀਲੀਅਨ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਨਹੀਂ ਹਨ।"
ਸਵੈਚਾਲਕ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਹੋਰ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਜ਼ਿਆਦਾਤਰ ਰਸਮੀ ਹੈ। ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਜਿੰਨ ਬੋਤਲ ਵਿੱਚੋਂ ਬਾਹਰ ਆ ਚੁੱਕਿਆ ਹੈ। ਜੇ ਤੁਸੀਂ ਅਜਿਹੇ ਹਥਿਆਰ ਨਹੀਂ ਬਣਾਉਂਦੇ ਤਾਂ ਨਾ ਬਣਾਓ ਤੁਹਾਡੇ ਦੁਸ਼ਮਣ ਤਾਂ ਬਣਾਉਣਗੇ ਹੀ।
ਕੀ ਹੋਵੇਗੀ ਰਣਨੀਤੀ?
ਟੌਮ ਸਿਮਪਸਨ ਕਹਿੰਦੇ ਹਨ, "ਜਦੋਂ ਅਜਿਹੇ ਹਥਿਆਰਾਂ 'ਤੇ ਪਾਬੰਦੀ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਫ਼ਿਰ ਸਵੈ ਕਾਬੂ ਦੀ ਵਕਾਲਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਇਹ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ 20 ਸਾਲ ਬਾਅਦ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਹੋਵੇਗੀ?"
ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਅਜਿਹੇ ਦੇਸ ਹੋਣਗੇ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਸਵੈਚਾਲਕ ਪ੍ਰਣਾਲੀ ਹੋਵੇਗੀ ਅਤੇ ਸਾਡੀ ਸੈਨਾ ਕੋਲ ਬਚਾਅ ਲਈ ਅਜਿਹੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋਵੇਗੀ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਉਸ ਸਥਿਤੀ ਵਿੱਚ ਲੋਕ ਸਰਕਾਰਾਂ ਨੂੰ ਕਹਿਣਗੇ ਕਿ ਸਵੈਕਾਬੂ ਦਾ ਫ਼ੈਸਲਾ ਗ਼ਲਤ ਸੀ। ਸਰਕਾਰ ਦਾ ਪਹਿਲਾ ਫ਼ਰਜ਼ ਦੇਸ ਨੂੰ ਸੁਰੱਖਿਅਤ ਕਰਨ ਦਾ ਹੈ। ਜੋ ਜ਼ਿੰਮੇਵਾਰ ਸਰਕਾਰਾਂ ਹਨ ਉਹ 'ਨੋ ਫ਼ਸਟ ਯੂਜ਼ ਪਾਲਿਸੀ' ਯਾਨੀ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦਾ ਪਹਿਲਾਂ ਇਸਤੇਮਾਲ ਨਾ ਕਰਨ ਦੀ ਨੀਤੀ ਅਪਣਾ ਸਕਦੀਆਂ ਹਨ।"
ਇਹ ਉਹ ਹੀ ਰਣਨੀਤੀ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਵੀਹਵੀਂ ਸਦੀ ਦੀ ਪਰਮਾਣੂ ਹਥਿਆਰਾਂ ਦੀ ਹੋੜ ਯਾਦ ਦਵਾ ਸਕਦੀ ਹੈ।
ਪਰ ਇੱਕ ਹੋਰ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?
ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਟੌਮ ਕਹਿੰਦੇ ਹਨ, "ਚਲੋ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰਦੇ ਹਾਂ ਜਿਸ ਵਿੱਚ ਨੈਨੋ ਜਾਂ ਫ਼ਿਰ ਮਾਈਕਰੋ ਤਕਨੀਕ ਦਾ ਇਸਤੇਮਾਲ ਹੋਇਆ ਹੈ ਅਤੇ ਉਸ ਦੇ ਜ਼ਰੀਏ ਇੱਕ ਇਲਾਕੇ ਵਿੱਚ 20 ਤੋਂ 50 ਹਜ਼ਾਰ ਤੱਕ ਉਪਕਰਣ ਤਾਇਨਾਤ ਹਨ। ਇਸ ਸਥਿਤੀ ਵਿੱਚ ਅਜਿਹਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਕੋਈ ਇਨਸਾਨ ਯਾਂ ਫ਼ਿਰ ਇਨਸਾਨਾਂ ਦਾ ਦਸਤਾ ਉਸਦਾ ਮੁਕਾਬਲਾ ਕਰ ਸਕੇ।"
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਉਸ ਦੇ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਡੇ ਕੋਲ ਚਾਹੇ ਇਕਦਮ ਉਸ ਤਰ੍ਹਾਂ ਦਾ ਸਿਸਟਮ ਨਾ ਹੋਵੇ ਪਰ ਤੁਹਾਨੂੰ ਕਿਸੇ ਤਰ੍ਹਾਂ ਦੇ ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਦੀ ਲੋੜ ਹੋਵੇਗੀ।"
ਪਾਬੰਦੀ ਦੀ ਮੰਗ
ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅਜਿਹੇ ਸਿਸਟਮ ਜ਼ਰੀਏ ਹੀ ਸਾਹਮਣੇ ਮੋਜੂਦ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਪਰ ਸਾਫ਼ਟਵੇਅਰ ਇੰਜੀਨੀਅਰ ਲੌਰਾ ਨੋਲੈਨ ਵੱਖਰੀ ਰਾਇ ਰੱਖਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਲੋਕ ਅਜਿਹਾ ਸੋਚਦੇ ਹਨ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਜੰਗ ਰੋਬੋਟਾਂ ਦਰਮਿਆਨ ਹੋਵੇਗੀ। ਰੋਬੋਟ ਸੈਨਿਕ ਲੜਨਗੇ ਤਾਂ ਅਜਿਹੀ ਜੰਗ ਵਿੱਚ ਖ਼ੂਨ ਨਹੀਂ ਵਹੇਗਾ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਹ ਇੱਕ ਆਦਰਸ਼ਵਾਦੀ ਕਲਪਨਾ ਹੈ। ਅਸੀਂ ਜ਼ਿਆਦਾਤਰ ਮੌਕਿਆਂ 'ਤੇ ਅਜਿਹੀ ਸਥਿਤੀ ਦੇਖਾਂਗੇ ਕਿ ਇੰਨਾਂ ਮਸ਼ੀਨਾਂ ਨੂੰ ਇਨਸਾਨਾਂ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤਾਇਨਾਤ ਕੀਤਾ ਗਿਆ ਹੈ ਇਹ ਕਾਫ਼ੀ ਦਰਦਨਾਕ ਸਥਿਤੀ ਹੋਵੇਗੀ।"
ਲੌਰਾ ਨੋਲੈਨ ਟੇਕ ਕੰਪਨੀ 'ਗੂਗਲ' ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਨ। ਸਾਲ 2017 ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੂੰ ਅਮਰੀਕੀ ਸੁਰੱਖਿਆ ਵਿਭਾਗ ਦੇ ਨਾਲ ਇੱਕ ਪ੍ਰੋਜੈਕਟ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ।
ਇਸ ਪ੍ਰੋਜੈਕਟ ਵਿੱਚ ਡਰੋਨ ਨਾਲ ਲਏ ਗਏ ਵੀਡੀਓ ਫ਼ੁਟੇਜ਼ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਵਾਲੇ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨੇ ਸਨ। ਇਹ ਹਥਿਆਰ ਵਿਕਸਿਤ ਕਰਨ ਦਾ ਪ੍ਰੋਜੈਕਟ ਨਹੀਂ ਸੀ।
ਪਰ ਲੌਰਾ ਇਸ ਨੂੰ ਲੈ ਕਿ ਫ਼ਿਕਰਮੰਦ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਦਾ ਸੀ ਕਿ ਉਹ ਇੱਕ ਅਜਿਹੀ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹਨ ਜਿਸਦਾ ਰਸਤਾ ਕਿਤੇ ਨਾ ਕਿਤੇ ਜੰਗ ਵੱਲ ਜਾਂਦਾ ਹੈ।
ਉਨ੍ਹਾਂ ਨੇ ਇਸਦੇ ਵਿਰੋਧ ਵਿੱਚ ਅਸਤੀਫ਼ਾ ਦੇ ਦਿੱਤਾ। ਇਸ ਦੇ ਬਾਅਦ ਉਹ ''ਕਿਲਰ ਰੋਬੇਟ'' ਨੂੰ ਰੋਕਣ ਲਈ ਇੱਕ ਮੁਹਿੰਮ ਵਿੱਚ ਲੱਗ ਗਏ।
ਉਨ੍ਹਾਂ ਦੀ ਰਾਇ ਵਿੱਚ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦੇ ਮੂਲ ਵਿੱਚ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਕੰਪਿਊਟਰ ਅਤੇ ਇਨਸਾਨਾਂ ਦੇ ਸੋਚਣ ਦਾ ਤਰੀਕਾ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ।
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ, ''ਕੰਪਿਊਟਰ ਗਣਨਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਵਿੱਚ ਪਰਖ਼ ਕਰਕੇ ਫ਼ੈਸਲਾ ਲੈਣ ਦੀ ਖ਼ਾਸੀਅਤ ਹੁੰਦੀ ਹੈ। ਗਣਨਾ ਠੋਸ ਅੰਕੜਿਆਂ 'ਤੇ ਅਧਾਰਤ ਹੈ।ਜਦੋਂ ਕਿ ਪਰਖ਼ਕੇ ਫ਼ੈਸਲਾ ਲੈਂਦੇ ਸਮੇਂ, ਬਹੁਤ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ।''
ਉਹ ਕਹਿੰਦੇ ਹਨ, '' ਜੇ ਅਸੀਂ ਉਦਾਹਰਣ ਦੇ ਕੇ ਸਮਝਾਈਏ ਤਾਂ ਸਾਡੇ ਵਿੱਚੋਂ ਬਹੁਤੇ ਲੋਕ ਕਿਸੇ ਅਦਾਲਤ ਵਿੱਚ ਕਿਸੇ ਰੋਬੋਟ ਜੱਜ ਦੇ ਸਾਹਮਣੇ ਆਉਣਾ ਪਸੰਦ ਨਹੀਂ ਕਰਨਗੇ ਜੋ ਕਾਨੂੰਨ ਨੂੰ ਇੱਕ ਖ਼ਾਸ ਤਰੀਕੇ ਨਾਲ ਲਾਗੂ ਕਰਦਾ ਹੋਵੇ।''
ਤਕਨੀਕ ਦੀਆਂ ਸਮੱਸਿਆਵਾਂ
ਦਿੱਕਤ ਇਹ ਹੈ ਕਿ ਜੰਗ ਦੇ ਮੈਦਾਨ ਦਾ ਕੋਈ ਵੀ ਇਲਾਕਾ ਅਜਿਹਾ ਹੋਵੇ ਜਿੱਥੇ ਸਿਵੀਲਅਨਜ਼ ਦੀ ਆਬਾਦੀ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਹੋਵੇ, ਉਹ ਸੰਘਰਸ਼ ਦੇ ਲਿਹਾਜ਼ ਨਾਲ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਖੇਤਰ ਹੁੰਦਾ ਹੈ। ਉਥੇ ਕਾਫ਼ੀ ਮੁਸ਼ਕਲ ਫੈਸਲੇ ਲੈਣੇ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਹੀ ਪਰਖ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮਸ਼ੀਨ ਦੇ ਸਾਫ਼ਟਵੇਅਰ ਨੂੰ ਜਿੰਨਾਂ ਹਾਲਾਤ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਗਿਆ ਹੁੰਦਾ ਹੈ, ਜੇ ਉਨ੍ਹਾਂ ਤੋਂ ਅਲੱਗ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਉਂਦੀਆਂ ਹਨ ਤਾਂ ਹਾਲਾਤ ਬਹੁਤ ਹੀ ਅਨਿਸ਼ਚਿਤ ਜਿਹੇ ਹੋ ਸਕਦੇ ਹਨ।
ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਪ੍ਰੀਸਿਥੀਤੀਆਂ ਦੇ ਮੁਤਬਾਕ ਖ਼ੁਦ ਨੂੰ ਢਾਲਕੇ ਫ਼ੈਸਲਾ ਲੈ ਸਕਦੇ ਹਨ। ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਬਗ਼ੈਰ ਡਰਾਈਵਰ ਦੀ ਤਕਨੀਕ ਵਿੱਚ ਅਜਿਹੀ ਹੀ ਦਿੱਕਤ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ।
ਸਾਲ 2018 ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਊਬਰ ਦੀ ਇੱਕ ਸਵੈਚਾਲਕ ਕਾਰ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਸਾਈਕਲ 'ਤੇ ਕੋਲੋਂ ਲੰਘ ਰਹੀ ਇੱਕ ਔਰਤ ਨਾਲ ਟਕਰਾ ਗਈ ਸੀ। ਇਸ ਹਾਦਸੇ ਵਿੱਚ ਔਰਤ ਦੀ ਮੌਤ ਹੋ ਗਈ ਸੀ।
ਜਾਂਚ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਕਾਰ ਦਾ ਸਿਸਟਮ ਔਰਤ ਅੇਤ ਸਾਇਕਲ ਨੂੰ ਅਜਿਹੇ ਸੰਭਾਵਿਤ ਖ਼ਤਰੇ ਦੇ ਤੌਰ 'ਤੇ ਪਛਾਣ ਨਹੀਂ ਸਕਿਆ ਜਿਸ ਨਾਲ ਕਾਰ ਟਕਰਾ ਸਕਦੀ ਹੈ।
ਲੌਰਾ ਦਾ ਤਰਕ ਹੈ ਕਿ ਆਟੋਨਮਸ ਹਥਿਆਰਾਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਸਥਿਤੀਆਂ ਹੋਰ ਵੀ ਜ਼ਿਆਦਾ ਗੁੰਝਲਦਾਰ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਕਿਉਂਕਿ ਜੰਗ ਆਪਣੇ ਆਪ ਵਿੱਚ ਇੱਕ ਗੁੰਝਲਦਾਰ ਸਥਿਤੀ ਹੁੰਦੀ ਹੈ। ਲੌਰਾ ਮੁਤਾਬਕ ਇਥੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਜੁੜਿਆ ਸਵਾਲ ਵੀ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਨਾਲ ਅਜਿਹਾ ਕੁਝ ਹੋ ਜਾਵੇ ਜਿਸ ਨਾਲ ਯੁੱਧ ਅਪਰਾਧ ਦੀ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਰੱਖਿਆ ਜਾਵੇ ਤਾਂ ਜਵਾਬਦੇਹੀ ਕਿਸ ਦੀ ਹੋਵਗੀ? ਕੀ ਜਵਾਬਦੇਹੀ ਉਸ ਕਮਾਂਡਰ ਦੀ ਹੋਵੇਗੀ ਜਿਸ ਨੇ ਹਥਿਆਰ ਤਾਇਨਾਤ ਕਰਨ ਦਾ ਹੁਕਮ ਦਿੱਤਾ।"
ਸ਼ਾਇਦ ਨਹੀਂ ਕਿਉਂਕਿ ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਹਥਿਆਰ ਨੇ ਅਜਿਹਾ ਕੁਝ ਨਾ ਕੀਤਾ ਹੋਵੇ। ਅਜਿਹਾ ਹੋਣ ਦੀ ਕਲਪਨਾ ਸ਼ਾਇਦ ਇੰਜੀਨੀਅਰਾਂ ਨੇ ਵੀ ਨਾ ਕੀਤੀ ਹੋਵੇ। ਅਜਿਹੀ ਸਥਿਤੀ ਵਿੱਚ ਇੰਜੀਨੀਅਰਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ਤੈਅ ਕਰਨਾ ਵੀ ਔਖਾ ਹੋਵੇਗਾ।"
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸਮਝ ਵਿੱਚ ਇੰਨਾਂ ਹਥਿਆਰਾਂ 'ਤੇ ਹਰ ਹਾਲ ਵਿੱਚ ਪਾਬੰਦੀ ਲਗਾਈ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ।
ਖ਼ਤਰੇ ਹੀ ਖ਼ਤਰੇ
ਉੱਧਰ, ਸੈਂਟਰ ਫ਼ਾਰ ਨਿਊ ਅਮੈਰੀਕਨ ਸਕਿਊਰਿਟੀ ਵਿੱਚ ਡਾਇਰੈਕਟਰ ਆਫ਼ ਤਕਨੀਕ ਪੌਲ ਸ਼ੌਰੀ ਅਜਿਹੀ ਤਕਨੀਕ ਨਾਲ ਜੁੜੇ ਵੱਖਰੇ ਪਰ ਗੰਭੀਰ ਸਵਾਲ ਖੜੇ ਕਰਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਵਿਕਾਸ ਦੇ ਨਾਲ ਤਕਨੀਕ ਸਾਨੂੰ ਅਜਿਹੇ ਰਾਹ 'ਤੇ ਲਾ ਜਾ ਰਹੀ ਹੈ ਜਿੱਥੇ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾ ਜੁੜੇ ਫ਼ੈਸਲੇ ਮਸ਼ੀਨਆਂ ਦੇ ਹਵਾਲੇ ਹੋ ਜਾਣਗੇ ਅਤੇ ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਨਸਾਨੀਅਤ ਦੇ ਸਾਹਮਣੇ ਇਹ ਇੱਕ ਗੰਭੀਰ ਸਵਾਲ ਹੈ।"
ਪੌਲ ਪੈਂਟਾਗਨ ਵਿੱਚ ਪਾਲਿਸੀ ਐਨਾਲਿਸਟ ਰਹਿ ਚੁੱਕੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੇ ਕਿਤਾਬ ਵੀ ਲਿਖੀ ਹੈ, 'ਆਰਮੀ ਆਫ਼ ਨਨ, ਆਟੋਨੋਮਸ ਵੈਪਨਸ ਐਂਡ ਦਾ ਫ਼ਿਊਚਰ ਆਫ਼ ਵਾਰ'। ਕੀ ਭਵਿੱਖ ਦੀ ਜੰਗ ਵਿੱਚ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾਲ ਜੁੜੇ ਫ਼ੈਸਲੇ ਰੋਬੋਟ ਕਰਨਗੇ, ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਹਾਲੇ ਵੀ ਅਜਿਹੀਆਂ ਮਸ਼ੀਨਾਂ ਮੋਜੂਦ ਹਨ।
ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ ਪਹਿਲਾਂ ਤੋਂ ਕੀਤੀ ਗਈ ਪ੍ਰੋਗਰਾਮਿੰਗ ਜ਼ਰੀਏ ਡਰੋਨ ਖ਼ੁਦ ਹੀ ਉਡਾਨ ਭਰਦੇ ਹਨ। ਉਹ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਰੋਬੋਟ ਦੇ ਕੋਲ ਕਦੀ ਵੀ ਇੰਨੀ ਬੌਧਿਕ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋ ਸਕਦੀ ਕਿ ਉਹ ਜੰਗ ਦੇ ਨਾਲ ਜੁੜੇ ਰਣਨੀਤਿਕ ਅਤੇ ਜ਼ਮੀਨੀ ਖ਼ਤਰਿਆਂ ਨੂੰ ਸਮਝ ਸਕੇ।
ਪੌਲ ਸ਼ਾਰੀ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਹਾਲ ਹੀ ਵਿੱਚ ਕੁਝ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਈਆਂ ਹਨ। ਸੀਰੀਆ ਦੇ ਅਸਮਾਨ ਵਿੱਚ ਉਡਾਣ ਭਰਦੇ ਰੂਸ ਅਤੇ ਅਮਰੀਕਾ ਦੇ ਲੜਾਕੂ ਜਹਾਜ਼ ਜੋ ਜ਼ਮੀਨ 'ਤੇ ਅਭਿਆਸ ਕਰ ਰਹੀਆਂ ਸੈਨਿਕਾਂ ਦੀ ਮਦਦ ਕਰ ਰਹੇ ਸਨ। ਬੀਤੇ ਸਾਲ ਚੀਨ ਅਤੇ ਭਾਰਤ ਦੀਆਂ ਸੈਨਾਵਾਂ ਦਰਮਿਆਨ ਹੋਈ ਝੜਪ। ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਸੈਨਿਕ ਵਿਵਾਦਾਂ ਦਰਮਿਆਨ ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਤਾਇਨਾਤ ਹੋਣ ਤਾਂ ਵੱਡੇ ਜੋਖ਼ਮ ਦਾ ਡਰ ਰਹਿੰਦਾ ਹੈ। ਜੇ ਅਜਿਹੇ ਹਥਿਆਰ ਗ਼ਲਤ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾ ਲਗਾਉਂਦੇ ਹਨ ਤਾਂ ਜੰਗ ਜ਼ਿਆਦਾ ਭੜਕ ਸਕਦੀ ਹੈ।"
ਪੌਲ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਕਾਟ ਮਾਰਕਿਟ ਵਿੱਚ ਸੁਪਰ ਹਿਊਮਨ ਦੀ ਰਫ਼ਤਾਰ ਵਿੱਚ ਸ਼ੇਅਰ ਖ਼ਰੀਦਨ ਅਤੇ ਵੇਚਣ ਲਈ ਕੰਪਿਊਟਰ ਦਾ ਇਸਤੇਮਾਲ ਹੁੰਦਾ ਹੈ। ਸਭ ਨੇ ਇਸਦੇ ਜੋਖ਼ਮ ਨੂੰ ਦੇਖਿਆ ਹੈ।
ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿਉਂਕਿ ਮਸ਼ੀਨਾਂ ਇਹ ਸਭ ਕੁਝ ਮਿਲੀਸੈਕਿੰਡ ਜਿੰਨੇ ਘੱਟ ਸਮੇਂ ਵਿੱਚ ਕਰ ਦਿੰਦੀਆਂ ਹਨ।
ਅਜਿਹਾ ਹੀ ਜੰਗ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਵੀ ਹੋ ਸਕਦਾ ਹੈ। ਪਲਕ ਝਪਕਣ ਦੀ ਦੇਰੀ ਵਿੱਚ ਦੋ ਪੱਖਾਂ ਦੀਆਂ ਮਸ਼ੀਨਾ ਦਰਮਿਆਨ ਗੋਲੀਬਾਰੀ ਦੇਖਣ ਨੂੰ ਮਿਲ ਸਕਦੀ ਹੈ। ਸਥਿਤੀਆਂ ਉਸ ਸਮੇਂ ਹੋਰ ਵੀ ਭਿਆਨਕ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜਦੋਂ ਦੁਸ਼ਮਣ ਤੁਹਾਡੇ ਹਥਿਆਰਾਂ ਦਾ ਮੂੰਹ ਤੁਹਾਡੇ ਵੱਲ ਹੀ ਮੋੜ ਦੇਵੇ।
ਪੌਲ ਕਹਿੰਦੇ ਹਨ, "ਅਜਿਹਾ ਬਿਲਕੁਲ ਹੋ ਸਕਦਾ ਹੈ। ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨੂੰ ਹੈਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਸੈਨਾ ਵੀ ਉਸੇ ਤਰ੍ਹਾਂ ਦੇ ਅਸੁਰੱਖਿਅਤ ਕੰਪਿਊਟਰਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕਰਦੀ ਹੈ ਜਿਸ ਤਰ੍ਹਾਂ ਦੇ ਸਾਰੇ ਲੋਕ ਕਰਦੇ ਹਨ। ਖ਼ੁਦ ਚਲਣ ਵਾਲੀਆਂ ਕਾਰਾਂ ਹੈਕ ਕੀਤੀਆਂ ਜਾ ਚੁੱਕੀਆਂ ਹਨ।"
"ਅਸੀਂ ਇਹ ਦੇਖ ਚੁੱਕੇ ਹਾਂ ਕਿ ਹੈਕਰਸ ਦੂਰ ਬੈਠਕੇ ਵੀ ਕਾਰ ਦਾ ਸਟੇਅਰਿੰਗ ਅਤੇ ਬ੍ਰੇਕ ਕਾਬੂ ਕਰ ਸਕਦੇ ਹਨ। ਪਰ ਜੇ ਕੋਈ ਹੈਕਰ ਹਥਿਆਰਾਂ 'ਤੇ ਕਾਬੂ ਕਰ ਲੈਂਦਾ ਹੈ ਤਾਂ ਨੁਕਸਾਨ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਹੋ ਸਕਦਾ ਹੈ।"
ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ 'ਕਿਲਰ ਰੋਬੋਟ' ਨਾਲ ਜੁੜੇ ਕੁਝ ਹੋਰ ਸਵਾਲ ਵੀ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮੰਨ ਲੈਂਦੇ ਹਾਂ ਕਿ ਮਸ਼ੀਨਾਂ ਸਹੀ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾਂ ਲਗਾਉਂਦੀਆਂ ਹਾਨ ਤਾਂ ਵੀ ਜਾਨ ਦਾ ਨੁਕਸਾਨ ਹੋਵੇਗਾ ਉਸ ਲਈ ਕੋਈ ਇਨਸਾਨ ਜਵਾਬਦੇਹ ਨਹੀਂ ਹੋਵੇਗਾ।
'ਸਵਾਲ ਇਹ ਵੀ ਹੈ ਕਿ ਜੇ ਕੋਈ ਜੰਗ ਦਾ ਬੋਝ ਆਪਣੇ ਮੋਢਿਆਂ 'ਤੇ ਨਹੀਂ ਲੈਂਦਾ ਤਾਂ ਅਸੀਂ ਸਮਾਜ ਵਿੱਚ ਕੀ ਕਹਾਂਗੇ? ਅਸੀਂ ਇਨਸਾਨ ਨੂੰ ਕੀ ਜਵਾਬ ਦੇਵਾਂਗੇ?'
ਇੰਨਾਂ ਤੈਅ ਹੈ ਕਿ ਅੱਜ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਲੈ ਰਹੀਆਂ ਮਸ਼ੀਨਾਂ ਦੀ ਅੱਗੇ ਵੀ ਭੂਮਿਕਾ ਬਣੀ ਰਹੇਗੀ।
ਪਰ ਕੀ ਅਸੀਂ ਤਕਨੀਕ ਦੀਆਂ ਹੱਦਾਂ ਸਮਝ ਸਕਾਂਗੇ?
ਮਸ਼ੀਨਾਂ ਨੂੰ ਫ਼ੈਸਲਾ ਲੈਣ ਦੇ ਕਿੰਨੇ ਅਧਿਕਾਰ ਦਿੱਤੇ ਜਾਣਗੇ?
ਭਵਿੱਖ ਵਿੱਚ ਕੀ ਹੋਵੇਗਾ, ਇਸ ਸਵਾਲ ਦਾ ਜਵਾਬ ਇਹੀ ਹੀ ਹੈ ਕਿ ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ।
ਇਹ ਵੀ ਪੜ੍ਹੋ: