دانشمندان و محققان خواستار ممنوعیت استفاده از هوش مصنوعی تسلیحاتی شدند
در نامهای که توسط انستیتوی «آیندهی زندگی» منتشر شده، افراد سرشناسی مانند استفن هاوکینگ فیزیکدان برجسته، ایلان ماسک مدیرعامل شرکت تسلا و نوام چامسکی زبانشناس صاحبنام خواستار هشدار در مورد روباتهای جنگافزاری خودمختار هستند. «آیندهی زندگی» سازمان تحقیقاتی مستقلی است که در بوستون فعالیت دارد و هدف آن ترسیم تصویری از آیندهی روشنتر برای انسانها و کاهش ریسکهایی است که انسان با آن روبهرو خواهد شد.
این افراد میگویند افزایش بهرهوری از فناوری سلاحهایی که توسط هوش مصنوعی کنترل میشوند، میتواند ترورسیم و ناپایداری جهانی را به شدت افزایش دهد. آنها هوش مصنوعی نظامی را با اسلحهی AK-47 (کلاشنیکف) مقایسه میکنند، اسلحهی خودکار و ارزانقیمتی که صنعت جنگافزارها در همهی ابعاد از درگیریهای کوچک گرفته تا جنگهای عظیم را تحت سلطهی خود درآورده است. هوش مصنوعی بعد از اینکه توسعه یابد، به مواد گرانقیمت و خاصی برای تولید انبوه نیاز نخواهد داشت و برای تسلیحاتی شدن، نسبتاً ارزان خواهد بود. در بخشی از این نامه میخوانیم:
فناوری هوش مصنوعی به مرحلهای رسیده که گسترش سیستمهای این چنینی [سلاحهای هوشمند]، حداقل از لحاظ عملی و نه قانونی، نه در دهههای آتی بلکه در چند سال آینده در دسترس خواهد بود. ما معتقدیم هوش مصنوعی ظرفیت بسیار بالایی برای یاری رساندن به انسانها به شیوههای گوناگونی دارد و هدف این فناوری نیز باید چنین چیزی باشد. آغاز یک مسابقهی تسلیحاتی با استفاده از هوش مصنوعی، کار درستی نیست و باید از آن توسط ممنوعیتی برای سلاحهای مهاجم خودمختار که فراتر از کنترل طبیعی انسانها کار میکنند، جلوگیری کرد.
با این حال سلاحهای کاملاً خودمختار هنوز هیچ فعالیتی ندارند و موشکهای کروز، توپخانهها و هواپیماهای بدون سرنشین سالها است که دارای سیستم راهنمایی هوشمند هستند.
نامهی سازمان آیندهی زندگی در «کنفرانسهای مشترک بینالمللی در مورد هوش مصنوعی» (IJCAI) ارائه شد که امسال در شهر بوینس آیرس آرژانتین در حال برگزاری است.
منبع: Gamespot