شاید تا همین ده سال پیش استفاده از هوش مصنوعی و نقش آن در زندگی عادی ما تنها محدود به مواردی محدود و بسیار فنی بود که جز اهل فن توانایی فهم آن را نداشتند اما حالا میتوان گفت هوش مصنوعی جزیی از زندگی عادی ما است. امروز خودروهای خودران که توانمندی هدایت خودروها را بدون دخالت انسان داشته باشند، در مرز دریافت مجوز از نهادیهای قانونگذاری است. الگوریتمهای تحلیل گر در شرکتهای بیمه ریسک ابتلای هر مشتری را به بیماری با استفاده از دادههای قبلی و سبک زندگی شخص استخراج کرده و حق بیمه سودده را برای طرف مقابل محاسبه میکنند.
به گزارش «تابناک» نرم افزارهای امنیتی که در خدمت نهادهای امنیتی و انتظامی هستند، امکان ارتکاب و تکرار آن از سوی افراد دارای سوء سابقه را محاسبه کرده و در صورت لزوم محل حضور آنان را به مراکز مراقبتی اطلاع میدهند. هوش مصنوعی شاید زندگی را برای بسیاری از ما سهلتر کرده باشد. اما در ادامه سوالات جدی را به خصوص در حوزه قانونی و قضائی پدید میآورد.
به عنوان مثال هم اکنون بسیاری از ارتشهای جهان در حال ساخت جنگنده و یا رباتهای جنگجویی هستند که بدون کاربر و تنها با هوش مصنوعی کار کنند. آیا سپردن کنترل شلیک یک سلاح به یک یک برنامه رایانهای اخلاقی است. در صورتی که این سلاح به سمت یک بیمارستان و یک پناهگاه حمله و آن را تخریب کند، مسئولیت انسانی و حقوقی این کشتار بر عهده چه کسی بود.اینها سوالات پیچیدهای است که امروز انسان به خصوص در بکار بردن هوش مصنوعی روبه رو است.برای پاسخ به سوالات فوق باید نگاهی به اساس و کاربرد بحث هوش مصنوعی و به خصوص پایههای آن داشت و ارتباط آن را با امور حقوقی و قانونگذاری دریافت.
*نگاهی به مفهوم هوش مصنوعی
به نوشته حامی عدالت در ابتدا باید به مفهوم تصمیمگیری خودکار نگاهی انداخت. منظور از تصمیمگیری خودکار، بخش بخش کردن یک تصمیم به مجموعهای از معیارها است. تصمیمگیری به منزله الگوریتمی از قواعد است که از میان آلترناتیوهای از پیش تعیین شده دست به انتخاب میزند. بر این اساس یک ماشین هوش مصنوعی به صورت نظام مند بررسی میکند که آیا شرایط یک قاعده برقرار شده است یا خیر؟ اگر آن شرایط برقرار شده باشد، پس میتوان نتیجه گرفت که آلترناتیو پیشبینی شده قابل به کارگیری است. نظامهای تصمیمگیری خودکار درحال نزدیک شدن به فناوریهایی از زیرمجموعههای هوش مصنوعی و نظامهای اطلاعاتی هستند که کار تصمیمگیری را برای تصمیم گیران و خط مشی سازان تسهیل میکنند. در این نظامها استفاده از نیروی انسانی در فرایند اتخاذ نتیجه به حداقل رسیده و یا به طور کلی حذف میشود. اتخاذ تصمیمها میتواند بهصورت تمام خودکار و بدون برقراری هرگونه تماسی ازسوی مقامهای مسئول انجام گیرد؛ بدینصورت که شهروند میتواند فرایند تصمیمگیری را از طریق ابزارهای آغاز کند، سپس همه اطلاعات مرتبط با پرونده خود را در اختیار سیستم قرار دهد. در ادامه نتیجهگیری میشود و حاصل آن بدون هیچگونه دخالت عامل انسانی در فرایند حصول به تصمیم به شهروند منتقل شود.
دقت تصمیمگیری خودکار تاحدودی به میزان قابل اعتماد بودن شهروندان به هنگام ارائه اطلاعات مرتبط و متناسب با خودشان به نظام خودکار بستگی دارد و از این جنبه شبیه به اتخاذ تصمیم عامل انسانی است. اما تفاوت در این نکته نهفته است که خودکارسازی تصمیمها، بازیابی و تأیید اطلاعات را از میان پایگاههای دادهای تسهیل میکند که بخشهای مختلف دولت یک سیستم به صورت مشترک از آن استفاده میکنند.
به عنوان مثال چین بزرگترین سیستم اعتبار سنجی و دقیقترین آن را به راه انداخته است. تمام اطلاعات درونی سیستمهای دولتی از پرداختهای مالی و یا حتی روابط اجتماعی فرد در داخل الگوریتمها جمعآوری شده و تبدیل به نمرهای برای گرفتن وام میشود.
نرم افزارهایی که در حال تحلیل اطلاعات و تصمیمگیری برای شهروندان هستند به تدریج درحال تکامل و پیچیدهتر شدن هستند. همچنین تصمیمگیری خودکار را شهروندان رااغلب به صورت مستقیم انجام میدهند. شهروندان اطلاعات خود را به صورت برخط و بینیاز به پر کردن فورم در اختیار این نرم افزارها قرار میدهند تا از نتایج آن استفاده کنند.حالا سوال اینجاست که این الگوریتمها که در قالب هوش مصنوعی جمع شدهاند چه چالشهایی را در مقابل یک نظام حقوقی قرار میدهند و اصولاً این چالشها چه طور قابل حل خواهند بود.
هوش مصنوعی راه قانونگریزی را میبندد
یکی از مهمترین چالشهایی که هر سیستم و نظام اداری با آن روبه رو است نفوذ فساد به خصوص در عملکرد کارمندان است. یکی از مهمترین مسائلی که در مورد اتوماسیون و جایگزینی رویههای رایانهای به جای انسانهای است، تقویت عمل به قانون و رعایت قواعد است. هیچ کس نمیتواند به یک برنامه رایانهای بدون نفوذ سایبری ضربه وارد کند یا با استفاده از رشوه آن را وادار به دور زدن قانون کند.
مطالعات به خوبی نشان میدهد که انسانها در زمان تصمیمگیری امکان تبعیت صددرصدی از قواعد قانونی وضع شده را به هنگام تصمیمگیری درباره افراد دیگر ندارند. این امر دلایل مختلفی میتواند داشته باشد از جمله این که افراد ممکن است آگاهی کاملی از قواعد مرتبط با آن مورد خاص تصمیمگیری نداشته باشند یا اینکه افراد درخصوص پیش نیازها و الزامهای آن تصمیمگیری دچار سوءتفاهم شده باشند؛ افراد میتوانند در فرهنگهایی با محیط اداری گوناگونی باشند که در آن قواعد حقوقی فقط عاملی از میان عوامل متعدد هم ردیف باشند.
تصمیمگیری خودکار در مقایسه با آنچه که انسانها انجام میدهند، میتواند اجرای منسجمتری از قواعد رسمی مورد تأیید نظام حاکمیتی را در پی داشته باشد. خودکارسازی فرایند تصمیمگیری مبتنی بر به کارگیری معیارهای عینی و حذف سوگیریها بوده و قطعیت حقوقی در آن به صورت پیشفرض در قالب بروز رفتار و اتخاذ تصمیمهای یکسان در مواجه با موارد مشابه را به طور کامل رعایتم یکند. همچنین خودکارسازی تصمیمها با استفاده از هوش مصنوعی به ما این اطمینان را میدهد که در عین اینکه به تمام عوامل مرتبط در فرایند اتخاذ تصمیم توجه شده، هیچگونه ملاحظه غیرمرتبطی مثل پرداخت رشوه یا سفارش و توصیه از جانب مقامهای مسئول در فرایند تصمیمگیری دخالت داده نشده است. در اینجاست که میتوان مدعی بود حرکت به سوی خودکارسازی تصمیمها، گامی بزرگ به سوی تقویت حکومت قانون در کشور است.
اما این عقیده که تصمیمگیری خودکار رسیدن به نتایج عاری از خطا را تضمین میکند، جای شک و تردید دارد. مطالعات تجربی گذشته در مقیاس کوچک، اشتباههایی را از میان تصمیمهایی که ماشینها گرفتهاند شناسایی کرده است. اگرچه بیشتر مطالعات نشان میدهد که استفاده از رایانه به اتخاذ تصمیمهایی با حاشیه خطای کمتر منجر میشود. درکل به لحاظ حقوق اساسی این پیشفرض که رایانه همیشه راست میگویدگزاره بسیار خطرناکی است.
مورد نگران کنندهتر این است که درنتیجه خودکارسازی تصمیمها دیگر نیازی به سازوکارهایی برای به چالش کشیدن تصمیمهای دولت ازسوی شهروندان نیست، ایدهای که بیشک در نزد برخی از نظامها میتواند جذاب باشد. یکی از عناصر مهم حکومتهای قانونی این است که همیشه باید سازوکارها و فرایندهایی را در اختیار شهروندان قرار داد تا با آنها بتوانند بدون فوت وقت و صرف هزینه، مناقشات و اختلافات خود را با دولت رفع و رجوع کنند. بعضی مواقع زمینه به چالش کشیدن یک تصمیم تنها زمانی فراهم میشوند که منطق اتخاذ آن تصمیم را قانونگذار ارائه کنند.
از طرف یکی دیگر از چالشها این است که ممکن است حملاتی از سوی هکرها متوجه سیستمهای قانونگذاری و هوش مصنوعی شده باشد. امری که اتفاقاً امروز به خوبی خود را نشان میدهد. مشکلات حملات سایبری این است که در بسیاری از مواقع زمانی ناظران امنیتی متوجه روی دادن اتفاقی در داخل یک سیستم رایانه شدهاند که ممکن است ماهها از زمان نفوذ گذاشته باشد. حالا اگر در اثر تصمیمگیری استباه هوش مصنوعی صدمات غیر قابل جبرانی اتفاق افتاده باشد چگونه میتوان آن را حل و فصل کرد.این نکاتی است که هنوز پاسخ چندان صحیحی برای آن یافت نشده است. به نظر میرسد باید یکی سیتسم نظارتی ۲۴ ساعته برای ارائه گزارش و بررسی اشتباهات سیستم ایجاد کرد تا در صورت هر واقعهای بتوان آن را بررسی کرد اما در آن صورت باز هم ممکن این سوال مطرح شود که چرا این سیستم ایجاد شده تا عدهایانشان همیشه بر آن نظارت کنند این سوالی است که باید یک پاسخ جدی برای آن یافت.
وقتی نرم افزارهای هوش مصنوعی دور زدن قانون را هم باید بگیرند
یکی دیگر از نکات حقوقی در مورد نظامهای تصمیمگیری مرتبط با هوش مصنوعی مطرح است، ابتکار شخصی تصمیم گیران برای حل مشکلات در مواقع خاص است.
از پیش فرضها درباره تصمیمگیری خودکار این است که زمینهای برای طراحی نظامهای تصمیمگیری فراهم میکند که بیشترین تأکید آنها بر قواعد سفت و سخت است و از این طریق امکان تأثیرگذاری مقامهای تصمیمگیر را برای ارائه راهکارهای شخصی شده حذف یا به حداقل میرساند. رایانهها تنها در محدوده الگوریتمهایی که برای آنها برنامه نویسی شدهاند، قادر به فعالیت هستند.
در صورتی که تمام تصمیمات به رایانهها سپرده شود آیا میتوان اطمینان داشت که در تمام شرایط این امکان فعالیت درست آن وجود داشته باشد. فرض میکنیم یک ربات پلیس یک خودرو باسرعت بالا را به دلیل عدول از قانون متوقف کرده است، سوال اینجاست که بر فرض این ماشین یک زن باردار یا با فردی با خونریزی بالا را به بیمارستان میرساند در این حالت دیگر نمیتوان امیدی به این داشت که ربات به ماشین اجازه طی کردن راه خود برای نجات بیمار را بدهد چرا که اساساً برای این کار برنامه ریزی نشده است.
چنین موارد نقصی را میتوان بارها و بارها در موقعیتهای مختلف یافت. اساساً برنامه ریزی برای هر امکانی ناممکن است. استنتاج شخصی همان چیزی است که میتوان آن را به عنوان یک نقطه امید در این مواقع داشت. ماجرا این است که بررسی چنین مواردی نیاز به تجربیات بیشتری دارد.
تجربیاتی که شاید فقط بتوان آن را با هزینه سنگین دریافت. درهر صورت باید این را در نظر داشت که ممکن است یک نظام قانونی برای موارد خاص اجازه دور زدن قانون را به یک الگوریتم رایانهای در مواقع خاص را هم بدهد. نکتهای که به شدت در شرایط فعلی خنده دار به نظر میرسد.
هوش مصنوعی تا کجا در زندگی انسانها جلو خواهد رفت؟
نکته بعدی که در خصوص یک نظام حقوقی پیرامون ماشینها وجود دارد، دامنه اختیارات الگوریتمها یا هوش مصنوعی است. شاید کمتر کسی باشد که مشکلی با هدایت خودکار ماشینها توسط رایانهها و یا محاسبه مالیات وی داشته باشد اما اگر قرار باشد اختیار تیراندازی به یک انسان به یک ماشین سپرده شود شاید بسیاری با این ایده دچار مشکل شوند که چنین اتفاقی توسط یک ماشین هدایت شود.
البته هم اکنون نیز برخی از تسلیحات جنگی توسط سیستمهای رایانهای هدایت میشوند ولی حساسیت بالایی نسبت به ورود این سیستمها به زندگی عادی بشر وجود دارد. با یک نگاه کل میتوان موارد فراوانی را یافت که نباید تصمیمگیری به دست یک ماشین هوشمند سپرده شود. به نظر میرسد اولین مورد مسائلی هستند که به حقوق اساسی انسانهای مربوط هستند. مواردی مانند حق حیات، حق آزادی و یا حق بهره مندی از انتخاب قضاوت عادلانه که در هر سیستم حقوقی به رسمیت شناخته شده است.
در کنار این تصمیمگیری توسط ماشینهای هوشمند نباید به گونهای باشد که امکان قضاوت حرفهای توسط انسانها را محدود کند. از سوی دیگر باید به این نکته هم توجه کرد که دادههای استخراج شده نباید به گونهای باشد که تصمیمات انسانها در موارد خاص را کانالیزه کند. به عنوان مثال یک سیستم هوش مصنوعی ممکن است با ارائه تحلیلها و اطلاعات جهت دار سیاستمداران و یا قضات را به صدور یک حکم غیر عادلانه سوق دهند. از این رو باید امکان پیشبینی مناسب برای این امر فراهم شود تا برای تصمیم گیریهای حساس امکان چک کردن دادهها با یک نظام انسانی فراهم شود.
نکته دیگر در خصوص ماشینهای خودکار تصویب قوانین و آیین نامههایی برای بکارگیری آنها است. واقعیت این است که هم اکنون قوانین موجود نه تنها در نظام حقوقی جهان بلکه در نظام حقوقی دنیا نیز برای برخورد با مسئله هوش مصنوعی مبهم و حتی گنگ است. به عنوان مثال فرض کنیم که هوش مصنوعی رباتها را برای اداره تمام شئونات زندگی ما هدایت کنند. آیا یک ربات این حق را دارد که در صورت نیاز که در صورت خراب شدن از حق تعمیر بر خوردار باشد.
در این میان یک نظر ساختار شکنانه جدی وجود دارد که نرم افزار و الگوریتمهای هوشمند میتوانند یه طور کامل جای قانون را بگیرند. بر اساس این نظریه انسان باید نرم افزار یا برنامه رایانه یی که قادر به تصمیمگیری درخصوص موارد مختلف است را به منزله قانون در نظر بگیرد و این که این نرم افزار است که رابطه قانونی میان شهروندان و دولت و مجلس را در نظام تصمیمگیری ماشینی تنظیم میکند و نه قوانینی که با اجماع به تصویب رسیده باشد.
البته این نظریه دچار یک مشکل اساسی که مبانی چدید آورندگان این نرم افزارها چه چیز است و این که چگونه میتوان امکان نظارت دمکراتیک را بر آنها پدید آورد. بر طبق این نظریه اساساً این نرم افزار نویسان هستند که تبدیل به قانونگذاران جامعه ما خواهند شد نه سیاستمداران که وظفیه اجرای قانون را بر عهده خواهند داشت.
حتی اگر این اتفاق روی ندهد، هم اکنون الگوریتمها و هوش مصنوعی تبدیل به نوعی اجراکننده قانون شدهاند. به عنوان مثال در رویدادهای اخیر آمریکا و شورشهای مرتبط با آن یکی از مسائلی که به شدت سبب مناقشه در بین رأی دهندگان شد حدف توییتها و پستهای طرفداران ترامپ توسط الگوریتمهای هوش مصنوعی بود. بسیاری از طرفداران ترامپ معتقد بودند که شرکتهای بزرگ فناوری در حال سانسور سخنان آنها در فضای مجازی هستند و این مخالف قانون اساسی آمریکا است. در طرف مقابل استدلال شرکتهای بزرگ فناوری این بود که این سانسور اساساً به وسیله الگوریتمهای ماشینی روی میدهد و آنان دخالتی در این ماجرا ندارد. حالا سوال این است که کدام یک در این باره به درستی صحبت میکنند.
کنگره آمریکا اخیراً کمیتهای را برای بررسی ابعادقانونی مسائل مرتبط با هوش مصنوعی را تشکیل داده است. در اروپا نیز پارلمان اروپا در حال بررسی موارد مرتبط با این مسئله هستند از جمله این که چگونه میتوانند مسئولیت کیفری مرتبط با خودورهای خودران را حل کنند. در آسیا نیز شورای دولتی این کشور در حال بررسی آیین نامههای جدیدی برای بحثهای قانونی مرتبط با هوش مصنوعی است به خصوص این که چین سرمایهگذاری سنگینی را صرف توسعه این حوزه از فناوری کرده است.
به این ترتیب امروزه روند غالب در مجالس قانونگذاری اغلب کشورها تعیین خطوط و حرکت به نحوی است که قوانین تصویب شده به طور مستقیم همراستا و متناسب با مقتضیات نظامهای تصمیمگیری ماشینی باشد. البته نگرش کشورهای مختلف متناسب با نظام سیاسی آنها نیز درباره این مسئله فرق میکند. به عنوان مثال کشور چین به عنوان یک کشور دیکتاتوری ممکن است نظر متفاوتی درباره هوش مصنوعی و نحوه نظارت مردمی تا کشوری هم چون ایالات متحده آمریکا داشته باشد. تفاوتهایی که گاه ممکن است به ایجاد دو قطب متفاوت در فوانین مرتبط با بحثهای هوش مصنوعی در دنیای آینده بیانجامد.
ایران چه خواهد کرد؟
با مروری بر موارد مطرح شده میتوان گفت که نظامهای حقوقی تازه در ابتدای راه مواجه با هوش مصنوعی مستقل هستند. به طور حتم هوش مصنوعی همان طور که سایر عرصهها را تحت تأثیر قرار نظامهای حقوقی در دنیا را متأثر خواهد کرد.
در شرایط فعلی هر نظام حقوقی که دراین مسیر زودتر از بقیه وارد عمل شود میتواند در تحت تأثیر قراردادن رویههای مشابه در دنیا پیشتاز باشد. مسئله که باید مد نظر متولیان نظام حقوقی در ایران نیز قرار بگیرد. به خصوص آن که ایران همواره کشوری پیشتاز در این حوزه است.