ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ

ਇਰਾਨ

ਤਸਵੀਰ ਸਰੋਤ, HAMSHAHRIONLINE

ਇਰਾਨ ਦੀ ਰਾਜਧਾਨੀ ਤਹਿਰਾਨ

ਵਿਗਿਆਨਿਕ ਮੋਹਸਿਨ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀਆਂ ਗੱਡੀਆਂ ਦਾ ਕਾਫ਼ਲਾ ਰਾਜਧਾਨੀ ਦੇ ਬਾਹਰੀ ਇਲਾਕੇ ਵਿੱਚੋਂ ਲੰਘ ਰਿਹਾ ਸੀ।

ਉਹ ਇਰਾਨ ਦੇ ਸਭ ਤੋਂ ਸੀਨੀਅਰ ਪਰਮਾਣੂ ਵਿਗਿਆਨਿਕ ਮੰਨੇ ਜਾਂਦੇ ਸਨ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਪਹਿਰੇ ਵਿੱਚ ਰਹਿੰਦੇ ਸਨ।

ਕੁਝ ਦੇਰ ਬਾਅਦ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀ ਗੱਡੀ 'ਤੇ ਹਮਲਾ ਹੋਇਆ। ਜ਼ਬਰਦਸਤ ਗੋਲੀ ਬਾਰੀ ਹੋਈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਮੌਤ ਹੋ ਗਈ। ਇਹ ਕੋਈ ਸਧਾਰਨ ਹਮਲਾ ਨਹੀਂ ਸੀ।

ਮੌਕੇ 'ਤੇ ਮੌਜੂਦ ਰਹੇ ਇੱਕ ਸੀਨੀਅਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਉਥੇ ਕੋਈ ਹਮਲਾਵਰ ਨਹੀਂ ਸੀ। ਗੋਲੀਆਂ ਇੱਕ ਕਾਰ ਵਿੱਚ ਲੱਗੀ ਮਸ਼ੀਨਗੰਨ ਨਾਲ ਚਲਾਈਆਂ ਗਈਆਂ ਪਰ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਚਲਾਉਣ ਵਾਲਾ ਕੋਈ ਨਹੀਂ ਸੀ।

ਇਹ ਵੀ ਪੜ੍ਹੋ

ਈਰਾਨ ਦੇ ਇੱਕ ਹੋਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜ਼ਰੀਏ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾ ਰਿਹਾ ਸੀ।

'ਕੰਪਿਊਟਰ ਨਾਲ ਕਾਬੂ ਹੋਣ ਵਾਲੀ ਮਸ਼ੀਨਗੰਨ'। ਇਹ ਹੌਲੀਵੁੱਡ ਦੀ ''ਕਿਲਰ ਰੋਬੋਟ'' ਸੀਰੀਜ਼ ਵਾਲੀਆਂ ਫ਼ਿਲਮਾਂ ਤੋਂ ਪ੍ਰੇਰਿਤ ਕਹਾਣੀ ਦਾ ਹਿੱਸਾ ਲਗਦਾ ਹੈ।

ਜਿਥੇ ਇੱਕ ਅਜਿਹੀ ਮਸ਼ੀਨ ਹੈ, ਜੋ ਸੋਚ ਸਕਦੀ ਹੈ ਅਤੇ ਨਿਸ਼ਾਨਾਂ ਸਾਧ ਕੇ ਗੋਲੀ ਵੀ ਚਲਾ ਸਕਦੀ ਹੈ।

ਪਰ ਕੀ ਅਜਿਹਾ ਸੰਭਵ ਹੈ? ਜੇ ਹੈ ਤਾਂ ਇੱਕ ਹੋਰ ਸਵਾਲ ਖੜਾ ਹੁੰਦਾ ਹੈ ਕਿ ਕੀ ਆਉਣ ਵਾਲੇ ਦਿਨਾਂ ਵਿੱਚ ਜੰਗ ਵਿੱਚ ਵੀ ਸੈਨਿਕਾਂ ਦੀ ਜਗ੍ਹਾ ਹੁਣ ਰੋਬੋਟ ਆਹਮਣੇ-ਸਾਹਮਣੇ ਹੋਣਗੇ?

ਰੋਬੋਟ

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ 'ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ 'ਆਟੋਨੋਮਸ'

ਜੰਗ 'ਚ ਲੜਨਗੇ ਰੋਬੋਟ?

ਅਮਰੀਕਾ ਦੀ ਜਾਨ ਹਾਪਿਨਸ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਸੀਨੀਅਰ ਰਿਸਰਚ ਐਨਾਲਿਸਟ ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਸ ਦੇ ਕੋਲ ਇਹ ਸਮਰੱਥਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਮਨੁੱਖੀ ਮਦਦ ਜਾਂ ਨਿਰਦੇਸ਼ ਦੇ ਬਿਨਾਂ ਆਪਣੇ ਟੀਚੇ ਤੈਅ ਕਰੇ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕੇ।''

ਇਥੇ ਇਹ ਸਮਝਣਾ ਹੋਵੇਗਾ ਕਿ ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ 'ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ 'ਆਟੋਨੋਮਸ'। ਯਾਨੀ ਮਸ਼ੀਨ ਨੂੰ ਖ਼ੁਦ ਫ਼ੈਸਲੇ ਲੈਣ ਦੀ ਤਾਕਤ ਦੇਣਾ। ਇਸ ਨੂੰ ਲੈ ਕੇ ਬਹਿਸ ਹੁੰਦੀ ਰਹਿੰਦੀ ਹੈ।

ਇਨ੍ਹਾਂ ਹਥਿਆਰਾਂ ਦਾ ਦਾਇਰਾ ਵੀ ਕਾਫ਼ੀ ਵੱਡਾ ਹੈ। ਇਨ੍ਹਾਂ ਵਿੱਚ ਮੁੱਢਲੀ (ਪ੍ਰਾਇਮਰੀ) ਪੱਧਰ ਦੇ ਹਥਿਆਰਾਂ ਤੋਂ ਲੈ ਕੇ ਟਰਮੀਨੇਟਰ ਤੱਕ ਆਉਂਦੇ ਹਨ। ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅੱਜ ਵੀ ਅਜਿਹੇ ਹਥਿਆਰ ਮੌਜੂਦ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਸਾਡੇ ਕੋਲ ਸਮੁੰਦਰੀ ਸੁਰੰਗ, ਕਈ ਤਰ੍ਹਾਂ ਦੀਆਂ ਜ਼ਮੀਨੀ ਸੁਰੰਗਾਂ, ਸਾਈਬਰ ਤਕਨੀਕ ਅਤੇ ਸਾਈਬਰ ਹਥਿਆਰ ਹਨ ਜੋ ਆਟੋਨੋਮਸ ਹਨ। ਫ਼ਿਰ ਇਸਰਾਈਲ ਦੀ ਐਂਟੀ ਰੇਡੀਏਸ਼ਨ ਮਿਸਾਈਲ ਹੈਰੋਪ ਹੈ। ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਕਿ ਲੌਂਚ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ ਇਹ ਸਿਗਨਲ ਦੇ ਆਧਾਰ 'ਤੇ ਹਮਲਾ ਕਰਨ ਬਾਰੇ ਖ਼ੁਦ ਤੈਅ ਕਰਦੀ ਹੈ। ਤੁਸੀਂ ਪੈਟੀਅਲ ਮਿਸਾਈਲ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਕਰਦੇ ਹੋਏ ਆਟੋਮੈਟਿਕ ਮੋਡ ਵਿੱਚ ਤਾਇਨਾਤ ਕਰ ਸਕਦੇ ਹੋ।''

''ਕਿਲਰ ਰੋਬੋਟ'' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ 'ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ।

ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ''ਚੀਨ ਆਪਣੀ ਸੈਨਾ ਨੂੰ ਮਜ਼ਬੂਤ ਬਣਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ। ਉਹ ਆਪਣੀ ਜਲ ਸੈਨਾ ਲਈ ਜਹਾਜ਼ਾਂ ਅਤੇ ਪਣਡੁੱਬੀਆਂ ਨੂੰ ਸਵੈਚਾਲਕ ਬਣਾ ਰਹੇ ਹਨ।

ਇਸਰਾਈਲ ਜ਼ਮੀਨੀ ਹਥਿਆਰਾਂ ਮਸਲਨ ਟੈਂਕਾਂ ਅਤੇ ਤੋਪਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਿੱਚ ਲੱਗਿਆ ਹੋਇਆ ਹੈ।''

ਉਨ੍ਹਾਂ ਅੱਗੇ ਦੱਸਿਆ, '' ਰੂਸ ਵੀ ਜ਼ਮੀਨੀ ਉਪਕਰਣਾਂ 'ਤੇ ਕਾਫ਼ੀ ਰਕਮ ਖ਼ਰਚ ਕਰ ਰਿਹਾ ਹੈ। ਅਮਰੀਕਾ ਦੀ ਦਿਲਚਸਪੀ ਹਰ ਜਗ੍ਹਾ ਹੈ। ਏਅਰਫ਼ੋਰਸ, ਏਅਰਬੇਸ ਸਿਸਟਮ ਤੋਂ ਲੈ ਕੇ ਮਿਜ਼ਾਈਲ ਤੱਕ। ਯੂਕੇ ਵੀ ਆਪਣੀ ਹਵਾਈ ਸੈਨਾ ਅਤੇ ਜਲ ਸੈਨਾ ਦੀ ਸਮਰੱਥਾ ਵਧਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ।''

ਇਹ ਵੀ ਪੜ੍ਹੋ

ਰੋਬੋਟ

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ''ਕਿਲਰ ਰੋਬੋਟ'' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ 'ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ

ਮਾਹਰਾਂ ਦੀ ਚਿੰਤਾ

ਅਹਿਮ ਗੱਲ ਇਹ ਹੈ ਕਿ ਹਾਲੇ ਜੋ ਸਾਰੇ ਹਥਿਆਰ ਵਿਕਸਿਤ ਹੋ ਰਹੇ ਹਨ, ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਸਾਰੇ ਰੋਬੋਟ ਕਿਲਰ ਨਹੀਂ ਹੋਣਗੇ। ਪਰ ਕੁਝ ਹਥਿਆਰਾਂ ਅਤੇ ਦੇਸਾਂ ਨੂੰ ਲੈ ਕੇ ਹੈਦਰ ਫ਼ਿਕਰਮੰਦ ਨਜ਼ਰ ਆਉਂਦੇ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਪੱਛਮੀ ਦੇਸ ਜੋਖ਼ਮ ਨੂੰ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਨ। ਉਹ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਭਰਪੂਰ ਟੈਸਟ ਕਰਦੇ ਹਨ ਪਰ ਰੂਸ ਜਲਦੀ ਵਿਕਸਿਤ ਕੀਤੇ ਗਏ ਉਪਕਰਣਾਂ ਨੂੰ ਜ਼ਿਆਦਾ ਟੈਸਟਿੰਗ ਕੀਤੇ ਬਿਨਾ ਹੀ ਤਾਇਨਾਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਮੈਂ ਇਸੇ ਨੂੰ ਲੈ ਕੇ ਹੀ ਫ਼ਿਕਰਮੰਦ ਹਾਂ।"

ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ 'ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"

ਆਕਸਫ਼ੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਐਸੋਸੀਏਟ ਪ੍ਰੋਫ਼ੈਸਰ ਟੌਮ ਸਿੰਪਸਨ ਨੇ ਜੰਗ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਕਈ ਸਾਲ ਲਗਾਏ ਹਨ। ਉਹ ਪੰਜ ਸਾਲਾਂ ਤੱਕ ਯੂਕੇ ਦੀ ਸੈਨਾ ਨਾਲ ਜੁੜੇ ਰਹੇ ਹਨ। ਤਕਨੀਕੀ ਅਤੇ ਸੁਰੱਖਿਆ ਨਾਲ ਜੁੜੇ ਸਵਾਲਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਦਿਲਚਸਪੀ ਲਗਾਤਾਰ ਬਣੀ ਹੋਈ ਹੈ

ਜੰਗ ਵਰਗੇ ਖ਼ਤਰਨਾਕ ਮੋਰਚਿਆਂ 'ਤੇ ਇਨਸਾਨਾਂ ਦੀ ਬਜਾਇ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਵਿਚਾਰ 'ਤੇ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਇਸ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਅਜਿਹ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਸਰਕਾਰਾਂ ਦੀ ਨੈਤਿਕ ਧਰਾਤਲ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਸਰਕਾਰਾਂ ਦੀ ਇਹ ਜ਼ਿੰਮੇਵਾਰੀ ਹੈ ਕਿ ਆਪਣੇ ਸੈਨਿਕਾਂ ਦੀ ਜਾਨ ਬਚਾਉਣ ਲੀ ਉਹ ਅਜਿਹੇ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨ।''

ਪਰ ਟੌਮ ਸੁਚੇਤ ਕਰਦੇ ਹਨ ਕਿ ਇਸ ਤਕਨੀਕ ਦੇ ਖ਼ਤਰੇ ਵੀ ਹਨ।

ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨੂੰ ਆਪਣੇ ਐਂਡਰਾਇਡ ਫ਼ੋਨ 'ਤੇ ਇੰਝ ਲੈ ਕੇ ਆਓ:

Skip YouTube post, 1
Google YouTube ਸਮੱਗਰੀ ਦੀ ਇਜਾਜ਼ਤ?

ਇਸ ਲੇਖ ਵਿੱਚ Google YouTube ਤੋਂ ਮਿਲੀ ਸਮੱਗਰੀ ਸ਼ਾਮਲ ਹੈ। ਕੁਝ ਵੀ ਡਾਊਨਲੋਡ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਅਸੀਂ ਤੁਹਾਡੀ ਇਜਾਜ਼ਤ ਮੰਗਦੇ ਹਾਂ ਕਿਉਂਕਿ ਇਸ ਵਿੱਚ ਕੁਕੀਜ਼ ਅਤੇ ਦੂਜੀਆਂ ਤਕਨੀਕਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕੀਤਾ ਹੋ ਸਕਦਾ ਹੈ। ਤੁਸੀਂ ਸਵੀਕਾਰ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ Google YouTube ਕੁਕੀ ਪਾਲਿਸੀ ਤੇ ਨੂੰ ਪੜ੍ਹਨਾ ਚਾਹੋਗੇ। ਇਸ ਸਮੱਗਰੀ ਨੂੰ ਦੇਖਣ ਲਈ ਇਜਾਜ਼ਤ ਦੇਵੋ ਤੇ ਜਾਰੀ ਰੱਖੋ ਨੂੰ ਚੁਣੋ।

ਚਿਤਾਵਨੀ: ਬਾਹਰੀ ਸਾਈਟਾਂ ਦੀ ਸਮਗਰੀ 'ਚ ਇਸ਼ਤਿਹਾਰ ਹੋ ਸਕਦੇ ਹਨ

End of YouTube post, 1

iran

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ 'ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"

ਮਸ਼ੀਨ ਕਰ ਸਕਦੀ ਹੈ ਗ਼ਲਤੀ!

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, ''ਇਹ ਡਰ ਬਣਿਆ ਰਹਿੰਦਾ ਹੈ ਕਿ ਤਕਨੀਕ ਗ਼ਲਤ ਫ਼ੈਸਲੇ ਲੈ ਸਕਦੀ ਹੈ। ਇਹ ਅਜਿਹੇ ਲੋਕਾਂ ਦੀ ਜਾਨ ਲੈ ਸਕਦੀ ਹੈ, ਜਿਨ੍ਹਾਂ ਦੀ ਜਾਨ ਨਹੀਂ ਜਾਣੀ ਚਾਹੀਦੀ। ਇਸ ਬਾਰੇ ਵਿੱਚ ਜ਼ਿਕਰ ਕਰਨਾ ਸਹੀ ਵੀ ਹੈ। ਜੇ ਸੈਨਿਕ ਇੱਕ ਇਨਸਾਨ ਹੋਵੇ ਤਾਂ ਆਪਣੇ ਨਿਸ਼ਾਨੇ ਅਤੇ ਮਸੂਮ ਲੋਕਾਂ ਦਰਮਿਆਨ ਫ਼ਰਕ ਕਰਨ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਉਸਦੀ ਹੁੰਦੀ ਹੈ। ਪਰ ਇੱਕ ਮਸ਼ੀਨ ਹਮੇਸ਼ਾਂ ਕਾਮਯਾਬੀ ਦੇ ਨਲਾ ਅਜਿਹਾ ਅੰਦਰ ਨਹੀਂ ਕਰ ਸਕੇਗੀ।''

ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, '' ਹੁਣ ਸਵਾਲ ਹੈ ਕਿ ਇਸ ਨੂੰ ਲੈ ਕੇ ਕਿੰਨਾ ਖ਼ਤਰਾ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਕੁਝ ਲੋਕ ਕਹਿਣਗੇ ਕਿ ਜੋਖ਼ਮ ਦੀ ਗੁੰਜਾਇਸ਼ ਨਾ ਦੇ ਬਰਾਬਰ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਮੈਂ ਇਸ ਵਿਚਾਰ ਨਾਲ ਸਹਿਮਤ ਨਹੀਂ ਹਾਂ। ਮੇਰੀ ਰਾਇ ਵਿੱਚ ਤਕਨੀਕ ਨੂੰ ਉਸੇ ਸਮੇਂ ਇਸਤੇਮਾਲ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਜਦੋਂ ਉਸ ਦੇ ਇਸਤੇਮਾਲ ਨਾਲ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਨਾ ਲੈ ਰਹੇ ਨਾਗਰਿਕਾਂ ਨੂੰ ਇਨਸਾਨੀ ਸੈਨਾ ਦੇ ਮੁਕਾਬਲੇ ਘੱਟ ਖ਼ਤਰਾ ਹੋਵੇ।''

ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ।

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਤੁਸੀਂ ਅਜਿਹੀ ਸਥਿਤੀ ਦੀ ਕਲਪਨਾ ਕਰੋ ਜਿੱਥੇ ਇੱਕ ਫ਼ਾਈਟਰ ਪਲੇਨ ਵਿੱਚ ਇੱਕ ਪਾਇਲਟ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੇ ਕੋਲ 20 ਜਾਂ 30 ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਹਨ।

ਉਹ ਅਸਮਾਨ ਵਿੱਚ ਜਿਸ ਜਗ੍ਹਾ ਹੈ, ਉਥੇ ਦੁਸ਼ਮਣ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਕੋਈ ਨਹੀਂ ਹੈ। ਤੁਸੀਂ ਦੇਖੋਂਗੇ ਕਿ ਅਜਿਹੀ ਜਗ੍ਹਾ ਸਵੈਚਾਲਕ ਸਿਸਟਮ ਕਿਸ ਤਰ੍ਹਾਂ ਸਫ਼ਲਤਾ ਨਾਲ ਵਾਰ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਰੱਖਿਅਤ ਵੀ ਹੈ ਕਿਉਂਕਿ ਇੱਥੇ ਕੋਈ ਸਿਵੀਲੀਅਨ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਨਹੀਂ ਹਨ।"

ਸਵੈਚਾਲਕ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਹੋਰ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਜ਼ਿਆਦਾਤਰ ਰਸਮੀ ਹੈ। ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਜਿੰਨ ਬੋਤਲ ਵਿੱਚੋਂ ਬਾਹਰ ਆ ਚੁੱਕਿਆ ਹੈ। ਜੇ ਤੁਸੀਂ ਅਜਿਹੇ ਹਥਿਆਰ ਨਹੀਂ ਬਣਾਉਂਦੇ ਤਾਂ ਨਾ ਬਣਾਓ ਤੁਹਾਡੇ ਦੁਸ਼ਮਣ ਤਾਂ ਬਣਾਉਣਗੇ ਹੀ।

ਰੋਬੋਟ

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ

ਕੀ ਹੋਵੇਗੀ ਰਣਨੀਤੀ?

ਟੌਮ ਸਿਮਪਸਨ ਕਹਿੰਦੇ ਹਨ, "ਜਦੋਂ ਅਜਿਹੇ ਹਥਿਆਰਾਂ 'ਤੇ ਪਾਬੰਦੀ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਫ਼ਿਰ ਸਵੈ ਕਾਬੂ ਦੀ ਵਕਾਲਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਇਹ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ 20 ਸਾਲ ਬਾਅਦ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਹੋਵੇਗੀ?"

ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਅਜਿਹੇ ਦੇਸ ਹੋਣਗੇ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਸਵੈਚਾਲਕ ਪ੍ਰਣਾਲੀ ਹੋਵੇਗੀ ਅਤੇ ਸਾਡੀ ਸੈਨਾ ਕੋਲ ਬਚਾਅ ਲਈ ਅਜਿਹੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋਵੇਗੀ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਉਸ ਸਥਿਤੀ ਵਿੱਚ ਲੋਕ ਸਰਕਾਰਾਂ ਨੂੰ ਕਹਿਣਗੇ ਕਿ ਸਵੈਕਾਬੂ ਦਾ ਫ਼ੈਸਲਾ ਗ਼ਲਤ ਸੀ। ਸਰਕਾਰ ਦਾ ਪਹਿਲਾ ਫ਼ਰਜ਼ ਦੇਸ ਨੂੰ ਸੁਰੱਖਿਅਤ ਕਰਨ ਦਾ ਹੈ। ਜੋ ਜ਼ਿੰਮੇਵਾਰ ਸਰਕਾਰਾਂ ਹਨ ਉਹ 'ਨੋ ਫ਼ਸਟ ਯੂਜ਼ ਪਾਲਿਸੀ' ਯਾਨੀ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦਾ ਪਹਿਲਾਂ ਇਸਤੇਮਾਲ ਨਾ ਕਰਨ ਦੀ ਨੀਤੀ ਅਪਣਾ ਸਕਦੀਆਂ ਹਨ।"

ਇਹ ਉਹ ਹੀ ਰਣਨੀਤੀ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਵੀਹਵੀਂ ਸਦੀ ਦੀ ਪਰਮਾਣੂ ਹਥਿਆਰਾਂ ਦੀ ਹੋੜ ਯਾਦ ਦਵਾ ਸਕਦੀ ਹੈ।

ਪਰ ਇੱਕ ਹੋਰ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?

ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਟੌਮ ਕਹਿੰਦੇ ਹਨ, "ਚਲੋ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰਦੇ ਹਾਂ ਜਿਸ ਵਿੱਚ ਨੈਨੋ ਜਾਂ ਫ਼ਿਰ ਮਾਈਕਰੋ ਤਕਨੀਕ ਦਾ ਇਸਤੇਮਾਲ ਹੋਇਆ ਹੈ ਅਤੇ ਉਸ ਦੇ ਜ਼ਰੀਏ ਇੱਕ ਇਲਾਕੇ ਵਿੱਚ 20 ਤੋਂ 50 ਹਜ਼ਾਰ ਤੱਕ ਉਪਕਰਣ ਤਾਇਨਾਤ ਹਨ। ਇਸ ਸਥਿਤੀ ਵਿੱਚ ਅਜਿਹਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਕੋਈ ਇਨਸਾਨ ਯਾਂ ਫ਼ਿਰ ਇਨਸਾਨਾਂ ਦਾ ਦਸਤਾ ਉਸਦਾ ਮੁਕਾਬਲਾ ਕਰ ਸਕੇ।"

ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਉਸ ਦੇ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਡੇ ਕੋਲ ਚਾਹੇ ਇਕਦਮ ਉਸ ਤਰ੍ਹਾਂ ਦਾ ਸਿਸਟਮ ਨਾ ਹੋਵੇ ਪਰ ਤੁਹਾਨੂੰ ਕਿਸੇ ਤਰ੍ਹਾਂ ਦੇ ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਦੀ ਲੋੜ ਹੋਵੇਗੀ।"

ਰੋਬੋਟ

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?

ਪਾਬੰਦੀ ਦੀ ਮੰਗ

ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅਜਿਹੇ ਸਿਸਟਮ ਜ਼ਰੀਏ ਹੀ ਸਾਹਮਣੇ ਮੋਜੂਦ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਪਰ ਸਾਫ਼ਟਵੇਅਰ ਇੰਜੀਨੀਅਰ ਲੌਰਾ ਨੋਲੈਨ ਵੱਖਰੀ ਰਾਇ ਰੱਖਦੇ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਲੋਕ ਅਜਿਹਾ ਸੋਚਦੇ ਹਨ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਜੰਗ ਰੋਬੋਟਾਂ ਦਰਮਿਆਨ ਹੋਵੇਗੀ। ਰੋਬੋਟ ਸੈਨਿਕ ਲੜਨਗੇ ਤਾਂ ਅਜਿਹੀ ਜੰਗ ਵਿੱਚ ਖ਼ੂਨ ਨਹੀਂ ਵਹੇਗਾ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਹ ਇੱਕ ਆਦਰਸ਼ਵਾਦੀ ਕਲਪਨਾ ਹੈ। ਅਸੀਂ ਜ਼ਿਆਦਾਤਰ ਮੌਕਿਆਂ 'ਤੇ ਅਜਿਹੀ ਸਥਿਤੀ ਦੇਖਾਂਗੇ ਕਿ ਇੰਨਾਂ ਮਸ਼ੀਨਾਂ ਨੂੰ ਇਨਸਾਨਾਂ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤਾਇਨਾਤ ਕੀਤਾ ਗਿਆ ਹੈ ਇਹ ਕਾਫ਼ੀ ਦਰਦਨਾਕ ਸਥਿਤੀ ਹੋਵੇਗੀ।"

ਲੌਰਾ ਨੋਲੈਨ ਟੇਕ ਕੰਪਨੀ 'ਗੂਗਲ' ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਨ। ਸਾਲ 2017 ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੂੰ ਅਮਰੀਕੀ ਸੁਰੱਖਿਆ ਵਿਭਾਗ ਦੇ ਨਾਲ ਇੱਕ ਪ੍ਰੋਜੈਕਟ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ।

ਇਸ ਪ੍ਰੋਜੈਕਟ ਵਿੱਚ ਡਰੋਨ ਨਾਲ ਲਏ ਗਏ ਵੀਡੀਓ ਫ਼ੁਟੇਜ਼ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਵਾਲੇ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨੇ ਸਨ। ਇਹ ਹਥਿਆਰ ਵਿਕਸਿਤ ਕਰਨ ਦਾ ਪ੍ਰੋਜੈਕਟ ਨਹੀਂ ਸੀ।

ਪਰ ਲੌਰਾ ਇਸ ਨੂੰ ਲੈ ਕਿ ਫ਼ਿਕਰਮੰਦ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਦਾ ਸੀ ਕਿ ਉਹ ਇੱਕ ਅਜਿਹੀ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹਨ ਜਿਸਦਾ ਰਸਤਾ ਕਿਤੇ ਨਾ ਕਿਤੇ ਜੰਗ ਵੱਲ ਜਾਂਦਾ ਹੈ।

ਉਨ੍ਹਾਂ ਨੇ ਇਸਦੇ ਵਿਰੋਧ ਵਿੱਚ ਅਸਤੀਫ਼ਾ ਦੇ ਦਿੱਤਾ। ਇਸ ਦੇ ਬਾਅਦ ਉਹ ''ਕਿਲਰ ਰੋਬੇਟ'' ਨੂੰ ਰੋਕਣ ਲਈ ਇੱਕ ਮੁਹਿੰਮ ਵਿੱਚ ਲੱਗ ਗਏ।

ਉਨ੍ਹਾਂ ਦੀ ਰਾਇ ਵਿੱਚ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦੇ ਮੂਲ ਵਿੱਚ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਕੰਪਿਊਟਰ ਅਤੇ ਇਨਸਾਨਾਂ ਦੇ ਸੋਚਣ ਦਾ ਤਰੀਕਾ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ।

ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ, ''ਕੰਪਿਊਟਰ ਗਣਨਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਵਿੱਚ ਪਰਖ਼ ਕਰਕੇ ਫ਼ੈਸਲਾ ਲੈਣ ਦੀ ਖ਼ਾਸੀਅਤ ਹੁੰਦੀ ਹੈ। ਗਣਨਾ ਠੋਸ ਅੰਕੜਿਆਂ 'ਤੇ ਅਧਾਰਤ ਹੈ।ਜਦੋਂ ਕਿ ਪਰਖ਼ਕੇ ਫ਼ੈਸਲਾ ਲੈਂਦੇ ਸਮੇਂ, ਬਹੁਤ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ।''

ਉਹ ਕਹਿੰਦੇ ਹਨ, '' ਜੇ ਅਸੀਂ ਉਦਾਹਰਣ ਦੇ ਕੇ ਸਮਝਾਈਏ ਤਾਂ ਸਾਡੇ ਵਿੱਚੋਂ ਬਹੁਤੇ ਲੋਕ ਕਿਸੇ ਅਦਾਲਤ ਵਿੱਚ ਕਿਸੇ ਰੋਬੋਟ ਜੱਜ ਦੇ ਸਾਹਮਣੇ ਆਉਣਾ ਪਸੰਦ ਨਹੀਂ ਕਰਨਗੇ ਜੋ ਕਾਨੂੰਨ ਨੂੰ ਇੱਕ ਖ਼ਾਸ ਤਰੀਕੇ ਨਾਲ ਲਾਗੂ ਕਰਦਾ ਹੋਵੇ।''

ਊਬਰ

ਤਸਵੀਰ ਸਰੋਤ, Press association

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਸਾਲ 2018 ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਊਬਰ ਦੀ ਇੱਕ ਸਵੈਚਾਲਕ ਕਾਰ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਸਾਈਕਲ 'ਤੇ ਕੋਲੋਂ ਲੰਘ ਰਹੀ ਇੱਕ ਔਰਤ ਨਾਲ ਟਕਰਾ ਗਈ ਸੀ

ਤਕਨੀਕ ਦੀਆਂ ਸਮੱਸਿਆਵਾਂ

ਦਿੱਕਤ ਇਹ ਹੈ ਕਿ ਜੰਗ ਦੇ ਮੈਦਾਨ ਦਾ ਕੋਈ ਵੀ ਇਲਾਕਾ ਅਜਿਹਾ ਹੋਵੇ ਜਿੱਥੇ ਸਿਵੀਲਅਨਜ਼ ਦੀ ਆਬਾਦੀ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਹੋਵੇ, ਉਹ ਸੰਘਰਸ਼ ਦੇ ਲਿਹਾਜ਼ ਨਾਲ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਖੇਤਰ ਹੁੰਦਾ ਹੈ। ਉਥੇ ਕਾਫ਼ੀ ਮੁਸ਼ਕਲ ਫੈਸਲੇ ਲੈਣੇ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਹੀ ਪਰਖ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।

ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮਸ਼ੀਨ ਦੇ ਸਾਫ਼ਟਵੇਅਰ ਨੂੰ ਜਿੰਨਾਂ ਹਾਲਾਤ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਗਿਆ ਹੁੰਦਾ ਹੈ, ਜੇ ਉਨ੍ਹਾਂ ਤੋਂ ਅਲੱਗ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਉਂਦੀਆਂ ਹਨ ਤਾਂ ਹਾਲਾਤ ਬਹੁਤ ਹੀ ਅਨਿਸ਼ਚਿਤ ਜਿਹੇ ਹੋ ਸਕਦੇ ਹਨ।

ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਪ੍ਰੀਸਿਥੀਤੀਆਂ ਦੇ ਮੁਤਬਾਕ ਖ਼ੁਦ ਨੂੰ ਢਾਲਕੇ ਫ਼ੈਸਲਾ ਲੈ ਸਕਦੇ ਹਨ। ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਬਗ਼ੈਰ ਡਰਾਈਵਰ ਦੀ ਤਕਨੀਕ ਵਿੱਚ ਅਜਿਹੀ ਹੀ ਦਿੱਕਤ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ।

ਸਾਲ 2018 ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਊਬਰ ਦੀ ਇੱਕ ਸਵੈਚਾਲਕ ਕਾਰ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਸਾਈਕਲ 'ਤੇ ਕੋਲੋਂ ਲੰਘ ਰਹੀ ਇੱਕ ਔਰਤ ਨਾਲ ਟਕਰਾ ਗਈ ਸੀ। ਇਸ ਹਾਦਸੇ ਵਿੱਚ ਔਰਤ ਦੀ ਮੌਤ ਹੋ ਗਈ ਸੀ।

ਜਾਂਚ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਕਾਰ ਦਾ ਸਿਸਟਮ ਔਰਤ ਅੇਤ ਸਾਇਕਲ ਨੂੰ ਅਜਿਹੇ ਸੰਭਾਵਿਤ ਖ਼ਤਰੇ ਦੇ ਤੌਰ 'ਤੇ ਪਛਾਣ ਨਹੀਂ ਸਕਿਆ ਜਿਸ ਨਾਲ ਕਾਰ ਟਕਰਾ ਸਕਦੀ ਹੈ।

ਲੌਰਾ ਦਾ ਤਰਕ ਹੈ ਕਿ ਆਟੋਨਮਸ ਹਥਿਆਰਾਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਸਥਿਤੀਆਂ ਹੋਰ ਵੀ ਜ਼ਿਆਦਾ ਗੁੰਝਲਦਾਰ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਕਿਉਂਕਿ ਜੰਗ ਆਪਣੇ ਆਪ ਵਿੱਚ ਇੱਕ ਗੁੰਝਲਦਾਰ ਸਥਿਤੀ ਹੁੰਦੀ ਹੈ। ਲੌਰਾ ਮੁਤਾਬਕ ਇਥੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਜੁੜਿਆ ਸਵਾਲ ਵੀ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਨਾਲ ਅਜਿਹਾ ਕੁਝ ਹੋ ਜਾਵੇ ਜਿਸ ਨਾਲ ਯੁੱਧ ਅਪਰਾਧ ਦੀ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਰੱਖਿਆ ਜਾਵੇ ਤਾਂ ਜਵਾਬਦੇਹੀ ਕਿਸ ਦੀ ਹੋਵਗੀ? ਕੀ ਜਵਾਬਦੇਹੀ ਉਸ ਕਮਾਂਡਰ ਦੀ ਹੋਵੇਗੀ ਜਿਸ ਨੇ ਹਥਿਆਰ ਤਾਇਨਾਤ ਕਰਨ ਦਾ ਹੁਕਮ ਦਿੱਤਾ।"

ਸ਼ਾਇਦ ਨਹੀਂ ਕਿਉਂਕਿ ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਹਥਿਆਰ ਨੇ ਅਜਿਹਾ ਕੁਝ ਨਾ ਕੀਤਾ ਹੋਵੇ। ਅਜਿਹਾ ਹੋਣ ਦੀ ਕਲਪਨਾ ਸ਼ਾਇਦ ਇੰਜੀਨੀਅਰਾਂ ਨੇ ਵੀ ਨਾ ਕੀਤੀ ਹੋਵੇ। ਅਜਿਹੀ ਸਥਿਤੀ ਵਿੱਚ ਇੰਜੀਨੀਅਰਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ਤੈਅ ਕਰਨਾ ਵੀ ਔਖਾ ਹੋਵੇਗਾ।"

ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸਮਝ ਵਿੱਚ ਇੰਨਾਂ ਹਥਿਆਰਾਂ 'ਤੇ ਹਰ ਹਾਲ ਵਿੱਚ ਪਾਬੰਦੀ ਲਗਾਈ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ।

ਰੋਬੋਟ

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ

ਖ਼ਤਰੇ ਹੀ ਖ਼ਤਰੇ

ਉੱਧਰ, ਸੈਂਟਰ ਫ਼ਾਰ ਨਿਊ ਅਮੈਰੀਕਨ ਸਕਿਊਰਿਟੀ ਵਿੱਚ ਡਾਇਰੈਕਟਰ ਆਫ਼ ਤਕਨੀਕ ਪੌਲ ਸ਼ੌਰੀ ਅਜਿਹੀ ਤਕਨੀਕ ਨਾਲ ਜੁੜੇ ਵੱਖਰੇ ਪਰ ਗੰਭੀਰ ਸਵਾਲ ਖੜੇ ਕਰਦੇ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਵਿਕਾਸ ਦੇ ਨਾਲ ਤਕਨੀਕ ਸਾਨੂੰ ਅਜਿਹੇ ਰਾਹ 'ਤੇ ਲਾ ਜਾ ਰਹੀ ਹੈ ਜਿੱਥੇ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾ ਜੁੜੇ ਫ਼ੈਸਲੇ ਮਸ਼ੀਨਆਂ ਦੇ ਹਵਾਲੇ ਹੋ ਜਾਣਗੇ ਅਤੇ ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਨਸਾਨੀਅਤ ਦੇ ਸਾਹਮਣੇ ਇਹ ਇੱਕ ਗੰਭੀਰ ਸਵਾਲ ਹੈ।"

ਪੌਲ ਪੈਂਟਾਗਨ ਵਿੱਚ ਪਾਲਿਸੀ ਐਨਾਲਿਸਟ ਰਹਿ ਚੁੱਕੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੇ ਕਿਤਾਬ ਵੀ ਲਿਖੀ ਹੈ, 'ਆਰਮੀ ਆਫ਼ ਨਨ, ਆਟੋਨੋਮਸ ਵੈਪਨਸ ਐਂਡ ਦਾ ਫ਼ਿਊਚਰ ਆਫ਼ ਵਾਰ'। ਕੀ ਭਵਿੱਖ ਦੀ ਜੰਗ ਵਿੱਚ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾਲ ਜੁੜੇ ਫ਼ੈਸਲੇ ਰੋਬੋਟ ਕਰਨਗੇ, ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਹਾਲੇ ਵੀ ਅਜਿਹੀਆਂ ਮਸ਼ੀਨਾਂ ਮੋਜੂਦ ਹਨ।

ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ ਪਹਿਲਾਂ ਤੋਂ ਕੀਤੀ ਗਈ ਪ੍ਰੋਗਰਾਮਿੰਗ ਜ਼ਰੀਏ ਡਰੋਨ ਖ਼ੁਦ ਹੀ ਉਡਾਨ ਭਰਦੇ ਹਨ। ਉਹ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਰੋਬੋਟ ਦੇ ਕੋਲ ਕਦੀ ਵੀ ਇੰਨੀ ਬੌਧਿਕ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋ ਸਕਦੀ ਕਿ ਉਹ ਜੰਗ ਦੇ ਨਾਲ ਜੁੜੇ ਰਣਨੀਤਿਕ ਅਤੇ ਜ਼ਮੀਨੀ ਖ਼ਤਰਿਆਂ ਨੂੰ ਸਮਝ ਸਕੇ।

ਪੌਲ ਸ਼ਾਰੀ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਹਾਲ ਹੀ ਵਿੱਚ ਕੁਝ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਈਆਂ ਹਨ। ਸੀਰੀਆ ਦੇ ਅਸਮਾਨ ਵਿੱਚ ਉਡਾਣ ਭਰਦੇ ਰੂਸ ਅਤੇ ਅਮਰੀਕਾ ਦੇ ਲੜਾਕੂ ਜਹਾਜ਼ ਜੋ ਜ਼ਮੀਨ 'ਤੇ ਅਭਿਆਸ ਕਰ ਰਹੀਆਂ ਸੈਨਿਕਾਂ ਦੀ ਮਦਦ ਕਰ ਰਹੇ ਸਨ। ਬੀਤੇ ਸਾਲ ਚੀਨ ਅਤੇ ਭਾਰਤ ਦੀਆਂ ਸੈਨਾਵਾਂ ਦਰਮਿਆਨ ਹੋਈ ਝੜਪ। ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਸੈਨਿਕ ਵਿਵਾਦਾਂ ਦਰਮਿਆਨ ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਤਾਇਨਾਤ ਹੋਣ ਤਾਂ ਵੱਡੇ ਜੋਖ਼ਮ ਦਾ ਡਰ ਰਹਿੰਦਾ ਹੈ। ਜੇ ਅਜਿਹੇ ਹਥਿਆਰ ਗ਼ਲਤ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾ ਲਗਾਉਂਦੇ ਹਨ ਤਾਂ ਜੰਗ ਜ਼ਿਆਦਾ ਭੜਕ ਸਕਦੀ ਹੈ।"

ਪੌਲ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਕਾਟ ਮਾਰਕਿਟ ਵਿੱਚ ਸੁਪਰ ਹਿਊਮਨ ਦੀ ਰਫ਼ਤਾਰ ਵਿੱਚ ਸ਼ੇਅਰ ਖ਼ਰੀਦਨ ਅਤੇ ਵੇਚਣ ਲਈ ਕੰਪਿਊਟਰ ਦਾ ਇਸਤੇਮਾਲ ਹੁੰਦਾ ਹੈ। ਸਭ ਨੇ ਇਸਦੇ ਜੋਖ਼ਮ ਨੂੰ ਦੇਖਿਆ ਹੈ।

ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿਉਂਕਿ ਮਸ਼ੀਨਾਂ ਇਹ ਸਭ ਕੁਝ ਮਿਲੀਸੈਕਿੰਡ ਜਿੰਨੇ ਘੱਟ ਸਮੇਂ ਵਿੱਚ ਕਰ ਦਿੰਦੀਆਂ ਹਨ।

ਅਜਿਹਾ ਹੀ ਜੰਗ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਵੀ ਹੋ ਸਕਦਾ ਹੈ। ਪਲਕ ਝਪਕਣ ਦੀ ਦੇਰੀ ਵਿੱਚ ਦੋ ਪੱਖਾਂ ਦੀਆਂ ਮਸ਼ੀਨਾ ਦਰਮਿਆਨ ਗੋਲੀਬਾਰੀ ਦੇਖਣ ਨੂੰ ਮਿਲ ਸਕਦੀ ਹੈ। ਸਥਿਤੀਆਂ ਉਸ ਸਮੇਂ ਹੋਰ ਵੀ ਭਿਆਨਕ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜਦੋਂ ਦੁਸ਼ਮਣ ਤੁਹਾਡੇ ਹਥਿਆਰਾਂ ਦਾ ਮੂੰਹ ਤੁਹਾਡੇ ਵੱਲ ਹੀ ਮੋੜ ਦੇਵੇ।

ਪੌਲ ਕਹਿੰਦੇ ਹਨ, "ਅਜਿਹਾ ਬਿਲਕੁਲ ਹੋ ਸਕਦਾ ਹੈ। ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨੂੰ ਹੈਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਸੈਨਾ ਵੀ ਉਸੇ ਤਰ੍ਹਾਂ ਦੇ ਅਸੁਰੱਖਿਅਤ ਕੰਪਿਊਟਰਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕਰਦੀ ਹੈ ਜਿਸ ਤਰ੍ਹਾਂ ਦੇ ਸਾਰੇ ਲੋਕ ਕਰਦੇ ਹਨ। ਖ਼ੁਦ ਚਲਣ ਵਾਲੀਆਂ ਕਾਰਾਂ ਹੈਕ ਕੀਤੀਆਂ ਜਾ ਚੁੱਕੀਆਂ ਹਨ।"

"ਅਸੀਂ ਇਹ ਦੇਖ ਚੁੱਕੇ ਹਾਂ ਕਿ ਹੈਕਰਸ ਦੂਰ ਬੈਠਕੇ ਵੀ ਕਾਰ ਦਾ ਸਟੇਅਰਿੰਗ ਅਤੇ ਬ੍ਰੇਕ ਕਾਬੂ ਕਰ ਸਕਦੇ ਹਨ। ਪਰ ਜੇ ਕੋਈ ਹੈਕਰ ਹਥਿਆਰਾਂ 'ਤੇ ਕਾਬੂ ਕਰ ਲੈਂਦਾ ਹੈ ਤਾਂ ਨੁਕਸਾਨ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਹੋ ਸਕਦਾ ਹੈ।"

ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ 'ਕਿਲਰ ਰੋਬੋਟ' ਨਾਲ ਜੁੜੇ ਕੁਝ ਹੋਰ ਸਵਾਲ ਵੀ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮੰਨ ਲੈਂਦੇ ਹਾਂ ਕਿ ਮਸ਼ੀਨਾਂ ਸਹੀ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾਂ ਲਗਾਉਂਦੀਆਂ ਹਾਨ ਤਾਂ ਵੀ ਜਾਨ ਦਾ ਨੁਕਸਾਨ ਹੋਵੇਗਾ ਉਸ ਲਈ ਕੋਈ ਇਨਸਾਨ ਜਵਾਬਦੇਹ ਨਹੀਂ ਹੋਵੇਗਾ।

'ਸਵਾਲ ਇਹ ਵੀ ਹੈ ਕਿ ਜੇ ਕੋਈ ਜੰਗ ਦਾ ਬੋਝ ਆਪਣੇ ਮੋਢਿਆਂ 'ਤੇ ਨਹੀਂ ਲੈਂਦਾ ਤਾਂ ਅਸੀਂ ਸਮਾਜ ਵਿੱਚ ਕੀ ਕਹਾਂਗੇ? ਅਸੀਂ ਇਨਸਾਨ ਨੂੰ ਕੀ ਜਵਾਬ ਦੇਵਾਂਗੇ?'

ਇੰਨਾਂ ਤੈਅ ਹੈ ਕਿ ਅੱਜ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਲੈ ਰਹੀਆਂ ਮਸ਼ੀਨਾਂ ਦੀ ਅੱਗੇ ਵੀ ਭੂਮਿਕਾ ਬਣੀ ਰਹੇਗੀ।

robot

ਤਸਵੀਰ ਸਰੋਤ, Getty Images

ਤਸਵੀਰ ਕੈਪਸ਼ਨ, ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ

ਪਰ ਕੀ ਅਸੀਂ ਤਕਨੀਕ ਦੀਆਂ ਹੱਦਾਂ ਸਮਝ ਸਕਾਂਗੇ?

ਮਸ਼ੀਨਾਂ ਨੂੰ ਫ਼ੈਸਲਾ ਲੈਣ ਦੇ ਕਿੰਨੇ ਅਧਿਕਾਰ ਦਿੱਤੇ ਜਾਣਗੇ?

ਭਵਿੱਖ ਵਿੱਚ ਕੀ ਹੋਵੇਗਾ, ਇਸ ਸਵਾਲ ਦਾ ਜਵਾਬ ਇਹੀ ਹੀ ਹੈ ਕਿ ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ।

ਇਹ ਵੀ ਪੜ੍ਹੋ:

Skip YouTube post, 2
Google YouTube ਸਮੱਗਰੀ ਦੀ ਇਜਾਜ਼ਤ?

ਇਸ ਲੇਖ ਵਿੱਚ Google YouTube ਤੋਂ ਮਿਲੀ ਸਮੱਗਰੀ ਸ਼ਾਮਲ ਹੈ। ਕੁਝ ਵੀ ਡਾਊਨਲੋਡ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਅਸੀਂ ਤੁਹਾਡੀ ਇਜਾਜ਼ਤ ਮੰਗਦੇ ਹਾਂ ਕਿਉਂਕਿ ਇਸ ਵਿੱਚ ਕੁਕੀਜ਼ ਅਤੇ ਦੂਜੀਆਂ ਤਕਨੀਕਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕੀਤਾ ਹੋ ਸਕਦਾ ਹੈ। ਤੁਸੀਂ ਸਵੀਕਾਰ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ Google YouTube ਕੁਕੀ ਪਾਲਿਸੀ ਤੇ ਨੂੰ ਪੜ੍ਹਨਾ ਚਾਹੋਗੇ। ਇਸ ਸਮੱਗਰੀ ਨੂੰ ਦੇਖਣ ਲਈ ਇਜਾਜ਼ਤ ਦੇਵੋ ਤੇ ਜਾਰੀ ਰੱਖੋ ਨੂੰ ਚੁਣੋ।

ਚਿਤਾਵਨੀ: ਬਾਹਰੀ ਸਾਈਟਾਂ ਦੀ ਸਮਗਰੀ 'ਚ ਇਸ਼ਤਿਹਾਰ ਹੋ ਸਕਦੇ ਹਨ

End of YouTube post, 2

(ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨਾਲ FACEBOOK, INSTAGRAM, TWITTERਅਤੇ YouTube 'ਤੇ ਜੁੜੋ।)