Halloween party ideas 2015

هل يمكن للذكاء الاصطناعي أن يؤذي البشر؟

 من الأفكار التي قد تراود أي من كان خاصة بعد مشاهدة أحد أفلام الأكشن التي يسيطر فيها جيوش من الروبوتات على العالم في سيناريو ساخر ينقلب فيه الجهاز على مُختَرعيه ، ولكن بعيداً عن الخيال العلمي هل يمكن لهكذا سيناريو ان يحصل على أرض الواقع؟ وهل يمكن لأجهزة الذكاء الإصطناعي أن تُؤذِي البشر؟


في الحقيقة الإجابة لا ونعم!.




كما ترى يوجد ثلاث قوانين لعلم الروباتيكس (الأجهزة الآليه) تعرف ب”قوانين آميسوف” 1942م ، يلزم أي مبرمج أخذها بعين الاعتبار، وينص القانون الأول على أن “الروبوت يجب أن لا يؤذي أي كائن بشري أو يساهم في ذلك” .
والثاني أن “الروبوت يجب أن يطيع أوامر البشر ما عدا ما يتعارض مع القانون الأول”
لذلك فلا يمكن لجهاز ذكاء إصطناعي أن يؤذي كائن بشري أذى مباشر (يستثنى من ذلك النوع أدناه) .

ولكن لا يزال هناك خطر محدق من تلك الأجهزة إذ أنها يمكن أن تؤذي بطريقة غير مباشرة وذلك كالآتي :

  • الأسلحة الأوتوماتيكيه وهي أجهزة ذكاء اصطناعي مبرمجة لتقتل وتستخدم غالباً في الحروب ، ولخطورة هكذا إختراعات فإن للدول سياسات وقوانين معينة للتعامل مع هذه الأجهزة وهي نوعين : الذاتية التي تختار أهدافها بنفسها حسب معلومات مدرجه مسبقاً وهذه ممنوعه دولياً ، ولكن الأجهزة ال شبه آلية مصرح بها وتستخدم في الحروب ومن المقلق جداً أن تقع كهذه قوة بين يدي الأشخاص الخطأ!.

  • أن يُبرمَج الجهاز للقيام بوظائف معينة ولكنه ينفذها بطريقة حَرفية ويتسبب بأذى ، مثال على ذلك إذا طلبت من سيارتك الذكية أن توصلك إلى المطار بأسرع صورة ممكنة ، فإنك قد تصل إلى هناك في أقصر وقت مع عدد من المخالفات وعدد من طائرات الهاليكوبتر تلاحقك! ، لذلك يجب أن يتم تنسيق الطلب مع طريقة تعامل الأجهزة مع الكلمات ولذلك يندر وجود أجهزة تستقبل أوامر مباشرة من المستخدم .



-

هل يمكن للذكاء الاصطناعي أن يؤذي البشر؟

 من الأفكار التي قد تراود أي من كان خاصة بعد مشاهدة أحد أفلام الأكشن التي يسيطر فيها جيوش من الروبوتات على العالم في سيناريو ساخر ينقلب فيه الجهاز على مُختَرعيه ، ولكن بعيداً عن الخيال العلمي هل يمكن لهكذا سيناريو ان يحصل على أرض الواقع؟ وهل يمكن لأجهزة الذكاء الإصطناعي أن تُؤذِي البشر؟


في الحقيقة الإجابة لا ونعم!.




كما ترى يوجد ثلاث قوانين لعلم الروباتيكس (الأجهزة الآليه) تعرف ب”قوانين آميسوف” 1942م ، يلزم أي مبرمج أخذها بعين الاعتبار، وينص القانون الأول على أن “الروبوت يجب أن لا يؤذي أي كائن بشري أو يساهم في ذلك” .
والثاني أن “الروبوت يجب أن يطيع أوامر البشر ما عدا ما يتعارض مع القانون الأول”
لذلك فلا يمكن لجهاز ذكاء إصطناعي أن يؤذي كائن بشري أذى مباشر (يستثنى من ذلك النوع أدناه) .

ولكن لا يزال هناك خطر محدق من تلك الأجهزة إذ أنها يمكن أن تؤذي بطريقة غير مباشرة وذلك كالآتي :

  • الأسلحة الأوتوماتيكيه وهي أجهزة ذكاء اصطناعي مبرمجة لتقتل وتستخدم غالباً في الحروب ، ولخطورة هكذا إختراعات فإن للدول سياسات وقوانين معينة للتعامل مع هذه الأجهزة وهي نوعين : الذاتية التي تختار أهدافها بنفسها حسب معلومات مدرجه مسبقاً وهذه ممنوعه دولياً ، ولكن الأجهزة ال شبه آلية مصرح بها وتستخدم في الحروب ومن المقلق جداً أن تقع كهذه قوة بين يدي الأشخاص الخطأ!.

  • أن يُبرمَج الجهاز للقيام بوظائف معينة ولكنه ينفذها بطريقة حَرفية ويتسبب بأذى ، مثال على ذلك إذا طلبت من سيارتك الذكية أن توصلك إلى المطار بأسرع صورة ممكنة ، فإنك قد تصل إلى هناك في أقصر وقت مع عدد من المخالفات وعدد من طائرات الهاليكوبتر تلاحقك! ، لذلك يجب أن يتم تنسيق الطلب مع طريقة تعامل الأجهزة مع الكلمات ولذلك يندر وجود أجهزة تستقبل أوامر مباشرة من المستخدم .
--
هذه المقالة بدعم من
--




إرسال تعليق

MARIthemes

www.netsailors.com
يتم التشغيل بواسطة Blogger.