دانشمندان بهدنبال ممنوعشدن بهکارگیری رباتهای قاتل در جنگها+عکس
تاریخ انتشار: ۲۸ مهر ۱۳۹۹ | کد خبر: ۲۹۶۸۹۸۶۷
به گزارش جام جم آنلاین به نقل از زومیت، دانشمندان ممنوع شدن توسعهی سلاحهای مجهز به هوش مصنوعی را خواستار شدهاند. بهعقیدهی آنها، سلاح های کُشنده خودمختار موجب کشته شدن مردم بیگناه میشوند.
گروهی از دانشمندان ممنوعشدن توسعهی سلاحهای مرگبارِ مجهز به هوش مصنوعی را خواستار شدهاند. دانشمندان میگویند با وجود سلاحهای کشندهی خودمختار (LAWS) کشتارهای ناخواسته همچون باگهای نرمافزاری به امری اجتنابناپذیر تبدیل میشوند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
پژوهشگران حوزهی اخلاق نیز استدلال میکنند اینکه سیستمهای هوش مصنوعی روزی بتوانند بدون دخالت انسان به کشتار انسانها دست بزنند، عبور از خط قرمزهای اخلاقی است. دانشمندان این اظهارات را در جریان نشست اخیر انجمن پیشبرد علوم آمریکا در واشنگتن دیسی ابراز کردهاند.
دیدبان حقوق بشر یکی از ۸۹ سازمان غیردولتی از ۵۰ کشور جهان است که کارزاری برای متوقفکردن رباتهای قاتل تشکیل دادهاند تا مقدمات لازم برای انعقاد معاهدهای بینالمللی در این زمینه را فراهم کنند. مری ورهام، یکی از مقامهای ارشد دیدبان حقوق بشر، در میان کسانی است که تلاشهای زیادی برای ممنوعشدن این دست سلاحهای کشنده کرده است. او به BBC News گفت:
بحث ما رباتهای ترمیناتوری نیست که راه میرود و حرف میزنند و درنهایت، روزی همهی جهان را تصاحب میکنند؛ بلکه آنچه نگرانش هستیم خطری زودهنگامتر، یعنی سلاحهای متداول با قابلیتهای خودمختاری است. این دست رباتها آهسته وارد میدانهای نبرد میشوند. هواپیمای بدونسرنشین نمونهای واضح است؛ اما هواپیماهای نظامی نیز هستند که خودشان بهتنهایی بدون دخالت انسانی از زمین بلند میشوند و پرواز میکنند و فرود میآیند. رباتهای نگهبان هم هستند که میتوانند حرکات را شناسایی کنند. اینها پیشگامان سلاحهای خودمختار محسوب میشود.
رایان گریپی، مدیر ارشد تکنولوژی شرکت Clearpath Rbotics، از پیشنهاد ممنوعشدن سلاحهای مجهز به هوش مصنوعی حمایت میکند. این درحالی است که شرکت او قراردادهای نظامی را میپذیرد؛ اما بهکارگیری سیستمهای هوش مصنوعی در جنگ را محکوم و اعلام کرده چنین سیستمهایی را توسعه نخواهند داد. او به BBC News گفت:
وقتی این سیستمها دچار نقص فنی شوند، به طریق پیشبینیناپذیری به مشکل برمیخورند. سیستمهای خودمختار نمیتوانند بهخودیخود تصمیم به کشتن یا نابودی بگیرند؛ بلکه تصمیمات مربوطبه انهدام یا کشتار در عمل هزاران کیلومتر دورتر بهوسیلهی توسعهدهندگان و برنامهنویسان و دانشمندانی گرفته میشوند که هیچ تصوری از وضعیتی ندارند که سلاح در آن مستقر است.
به گفته پیتر اسارو، پژوهشگری از دانشگاه نیو اسکول در نیویورک، چنین سناریویی پیامدهای اخلاقی و قانونی گستردهای برای جامعهی جهانی در پی خواهد داشت.
او گفت:
دادن اختیار قتل به ماشین توجیهپذیر نیست و نقض حقوق بشر است؛ چراکه ماشینها صلاحیت اخلاقی ندارند و نمیتوانند مسئولیت تصمیمات مربوطبه زندگی و مرگ را برعهده بگیرند. بنابراین، ممکن است افرادی مسئول آن باشند که این سلاحهای خودمختار را ساختهاند.
منبع: جام جم آنلاین
کلیدواژه: جنگ سلاح ربات دانشمند هوش مصنوعی ی خودمختار ممنوع شدن سیستم ها ربات ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت jamejamonline.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «جام جم آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۹۶۸۹۸۶۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ببینید l بازدید میلیونی زمین خوردن یک ربات/ انساننماها زمین خوردن را تمرین میکنند؟
به گزارش خبرگزاری خبرآنلاین، درحالی که شروع به خواندن این گزارش کردهاید، ویدئوی ۴۰ ثانیهای زیر به رکورد بازدید ۵میلیونی نزدیک میشود؛ ویدئویی که مدتها است، دنبالهکنندگان حوزه رباتیک به دنبال آن هستند. ویدئویی که از شفافیت سخن میگوید، چیزی که من طرفداران دوست دارند بیشتر از دنیای رباتیک ببینند. نشان دادن ساده آن چه در پشت صحنه عکسهای بدون خطای رباتها میگذرد. در بسیاری از موارد، ما از سالها آزمون و خطا میگذریم و سراغ تصاویری میرویم که رباتها را در دوربین خوب جلوه میدهند. هنگامی که شما فقط نتایج مثبت را به اشتراک میگذارید، انتظارات غیرواقع بینانهای برای خود ایجاد میکنید.
اما واقعیت این است که رباتهای دوپا سقوط میکنند. از این نظر، حداقل، آنها دقیقاً مانند ما هستند. همانطور که Agility اخیراً گفته است، "همه گاهی اوقات زمین می خورند، این نحوه برخاستن ما است که ما را تعریف میکند." من آن را یک قدم فراتر میبرم و اضافه میکنم که یاد گرفتن چگونه خوب زمین خوردن به همان اندازه مهم است.
پراس ولاگاپودی، مدیر ارشد فناوری تازه منصوب شده شرکت Agility، اخیراً گفته است که دیدن رباتها در این مرحله از کار چیز خوبی است. او خاطرنشان میکند: «وقتی یک ربات واقعاً در جهان است و کارهای واقعی انجام میدهد، اتفاقات غیرمنتظرهای رخ میدهد. شما چندبار زمین خوردن را تجربه خواهید کرد، اما این بخشی از یادگیری برای دویدن طولانی مدت در محیطهای واقعی است.»
اسکن سریع قوانین هاروارد برای زمین خوردن بدون آسیب، آنچه را که ما به طور شهودی در مورد زمین خوردن به عنوان انسان درک می کنیم، منعکس میکند:
از سرت محافظت کن از وزن خود برای هدایت بدن هنگام افتادن استفاده کن زانوهای خود را خم کن از کشیدن افراد دیگر با خود هنگام زمین خوردن پرهیز کنآرون ساندرز، مدیر ارشد فناوری Boston Dynamics، سال گذشته به techcrunch گفت:«ما از سقوط نمیترسیم و با رباتها طوری رفتار نمیکنیم که گویا خیلی شکنندهاند. ربات ما زیاد سقوط میکند و یکی از چیزهایی که مدتها پیش تصمیم گرفتیم این بود که باید رباتهایی بسازیم که بتوانند بدون شکستن زمین بخورند.»
آموزش زمین خوردن کاربردهای بسیاری خواهد داشت؛ رباتها زمین میخورند. بهتر است بتوانند بلند شوند. توانایی بلند شدن ممکن است برای اهداف شارژ نیز مفید باشد.
منبع: techcrunch
۲۲۷۲۲۷
برای دسترسی سریع به تازهترین اخبار و تحلیل رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید. کد خبر 1901181