چگونه میتوانیم اطمینان حاصل کنیم که هوش مصنوعی برای ما کار میکند. - خلاصه کتاب taming silicon valley
با دانش و اقدام در برابر دستکاری هوش مصنوعی مقاومت کنید.
هوش مصنوعی تجربیات روزمره شما را به روشهای ظریفی شکل میدهد. هر بار که گوشی خود را باز میکنید، ایمیلهای خود را میخوانید یا در شبکههای اجتماعی گشتوگذار میکنید، سیستمهای هوش مصنوعی به آرامی در پسزمینه کار میکنند، پیشنهاداتی ارائه میدهند و آنچه میبینید را تنظیم میکنند. این تعاملات کوچک در کنار هم تغییرات بزرگی در نحوه پردازش اطلاعات، تصمیمگیری و دیدگاه شما نسبت به جهان اطراف ایجاد میکنند.
در این بخش، شما با قابلیتهای واقعی سیستمهای فعلی هوش مصنوعی آشنا میشوید و دقیقاً میفهمید که چه چیزی در پشت آن رابطهای روان و پیامهای بازاریابی صیقلیافته اتفاق میافتد. شما روشهای عملی برای تشخیص محتوای تولید شده توسط هوش مصنوعی، محافظت از اطلاعات شخصی خود و انتخابهای هوشمندانه در مورد اینکه کدام ابزارهای هوش مصنوعی شایسته اعتماد شما هستند، یاد خواهید گرفت. این بینشها آگاهی فناوری شما را تقویت میکند و دستورالعملهای واضحی برای استفاده مؤثر از هوش مصنوعی، چه در محل کار و چه در زندگی شخصی، به شما ارائه میدهد.
بیایید با نگاهی به نحوه عملکرد واقعی این سیستمها و جایی که کممیآورند، شروع کنیم.
چرا هوش مصنوعی فعلی چیزی نیست که ما نیاز داریم.
هوش مصنوعی آیندهای پر از پیشرفتها و دستاوردهای فناوری را نوید میدهد. اما سیستمهای فعلی هوش مصنوعی، از جمله چتباتهای محبوب و ابزارهای خلاقانه، محدودیتهای قابل توجهی دارند که سؤالات جدی در مورد قابلیت اطمینان و مفید بودن آنها ایجاد میکند.
بیایید به نحوه عملکرد این سیستمها و شکستهای آنها نگاهی بیندازیم. ChatGPT به عنوان یک مثال بارز مطرح میشود. مکالمات آن ممکن است در سطح هوشمند به نظر برسند، اما مکانیک زیربنایی داستان دیگری را روایت میکند. این سیستم به سادگی کلمه بعدی را بر اساس الگوهای دادهها پیشبینی میکند، بدون اینکه درک واقعی یا تفکر منطقی داشته باشد. این امر منجر به چیزی میشود که محققان آن را "توهمات" مینامند – گزارههای نادرستی که با اطمینان مصنوعی ارائه میشوند.
برخی مثالها این موضوع را به وضوح نشان میدهند. وقتی از ChatGPT در مورد پیشینه یک استاد حقوق سؤال شد، یک رسوایی جنسی تخیلی ساخت و به مقالات خبری که هرگز وجود نداشتند، اشاره کرد. در مورد دیگری، ادعا کرد که یک کیلوگرم پر وزن کمتری از یک کیلوگرم آجر دارد. چنین اشتباهاتی نشان میدهد که تفاوت زیادی بین هوش ظاهری و درک واقعی وجود دارد.
سیستمهای هوش مصنوعی بصری نیز با مشکلات مشابهی روبرو هستند. از یک سیستم خواسته شد تصویری از یک مرد کوچک با سیمهای سلولی به عنوان میکروار* ایجاد کند، اما صحنهای آزاردهنده تولید کرد که در آن میکروار* از میان مرد عبور کرده بود. با این حال، چهره مرد آرام باقی مانده بود – هوش مصنوعی این تناقض آشکار را از دست داده بود. بار دیگر، وقتی از سیستم خواسته شد یک فیل را در یک صحنه ساحلی پنهان کند، سیستم یک فیل به شکل ابر کشید، که نشان میداد مفهوم پنهانسازی را درک نکرده است.
این مشکلات به یک مسئله بزرگتر اشاره میکنند: فناوری هوش مصنوعی قبل از انتشار گسترده نیاز به توسعه بیشتری دارد. سیستمهای فعلی میتوانند متنهای روان و تصاویر چشمنواز تولید کنند، اما فاقد مهارتهای استدلالی پایه هستند. آنها نمیتوانند واقعیتها را تأیید کنند، مسائل ساده ریاضی را حل کنند یا سازگاری منطقی را حفظ کنند.
عواقب واقعی این مشکلات قبلاً ظاهر شدهاند. سیستمهای حقوقی هوش مصنوعی به پروندههای دادگاهی جعلی استناد کردهاند و وکلا را مجبور به اصلاحات شرمآور و عذرخواهی از قضات کردهاند. چتباتهای پزشکی توصیههای نگرانکنندهای ارائه میدهند – یک مطالعه استاندارد نشان داد که آنها تنها در درصدی از موارد اطلاعات صحیح ارائه میدادند.
این سیستمها با وجود غیرقابل اطمینان بودن، به دلیل عوامل اقتصادی همچنان در حال گسترش هستند. توسعهدهندگان هوش مصنوعی معتقدند که مقیاسپذیری روشهای موجود از حل مشکلات اساسی درک و استدلال ماشین، مقرونبهصرفهتر است. این عجله برای ورود به بازار نه تنها مشکلات فنی ایجاد میکند، بلکه درهای خطرات اجتماعی جدی را نیز باز میکند.
ترکیب سیستمهای غیرقابل اطمینان و استقرار سریع، شرایط ایدهآلی برای آسیبهای گسترده ایجاد کرده است. با گسترش این ابزارهای هوش مصنوعی معیوب در جامعه، خطراتی به همراه میآورند که فراتر از مشکلات فنی ساده هستند. از دخالت در انتخابات تا نقض حریم خصوصی، این خطرات نیازمند توجه فوری ما هستند – و درک آنها با شناخت این که چقدر عمیقاً بر جهان ما تأثیر گذاشتهاند، آغاز میشود.
فوریترین تهدیدها
نقایص اساسی در سیستمهای هوش مصنوعی نگرانیهای جدی ایجاد میکند، اما گسترش سریع آنها در جامعه خطرات فوری به وجود آورده است. مشکلات فنی به تهدیدهای واقعی تبدیل شدهاند که همین حالا در حال تغییر جهان ما هستند.
اعتماد عمومی با چالشهای جدی مواجه شده است، زیرا سیستمهای هوش مصنوعی محتوای جعلی را سریعتر و متقاعدکنندهتر از همیشه ایجاد میکنند. به عنوان مثال، در انتخابات اسلواکی در سال ۲۰۰۲، یک فایل صوتی جعلی در سراسر کشور پخش شد و ادعاهای نادرستی درباره این که نامزد اصلی قصد تقلب در انتخابات را دارد، مطرح کرد. این مورد تنها یک اتفاق منفرد نبود. ترفندهای مشابه هوش مصنوعی در کشورهای دیگر نیز مشاهده شده است که هم انتخابات و هم درگیریهای بینالمللی را هدف قرار میدهند و نحوه جنگ اطلاعاتی را تغییر میدهند.
این فریبها به امنیت شخصی نیز گسترش یافتهاند و به مجرمان راههای جدیدی برای فریب مردم و سرقت پول دادهاند. هوش مصنوعی اکنون میتواند صداها را کپی کند و ویدیوهای واقعگرایانهای ایجاد کند که حتی متخصصان باتجربه نیز فریب آن را میخورند. تصور کنید والدین تماسهای تلفنی دریافت میکنند که دقیقاً شبیه صدای فرزندانشان است و مجرمان از این صداهای کپیشده برای جعل آدمربایی و درخواست پول استفاده میکنند. این فناوری آنقدر پیشرفته شده است که تا اوایل سال ۲۰۰۲، کلاهبرداران با استفاده از تماسهای ویدیویی که شبیه مدیران واقعی شرکت بودند، ۲۹ میلیون دلار از یک بانک در هنگکنگ سرقت کردند.
در مورد ویدیوهای جعلی، فناوری دیپفیک مستقیماً به کرامت شخصی و میزان اعتماد ما به آنچه میبینیم تهدید میکند. ایجاد محتوای جعلی اکنون سریع، ارزان و بسیار متقاعدکننده است. به آنچه برای تیلور سوئیفت در اوایل سال ۲۰۰۲ اتفاق افتاد نگاه کنید: تصاویر صریح تولید شده توسط هوش مصنوعی در عرض چند ساعت به صورت آنلاین پخش شد و قبل از حذف شدن، میلیونها بار در شبکههای اجتماعی به اشتراک گذاشته شد. بعداً در همان سال، در ماه اوت، ترامپ تصاویر تولید شده توسط هوش مصنوعی را به اشتراک گذاشت که به اشتباه ادعا میکرد سوئیفت و طرفدارانش از کمپین او حمایت میکنند، با وجود این که او سابقه حمایت از نامزدهای دموکرات را داشت. این مشکل به مدارس نیز سرایت کرده است، جایی که دانشآموزان تصاویر صریح جعلی از همکلاسیهای خود ایجاد میکنند. برخی کارمندان نیز از این فناوری برای ایجاد ضبطهای جعلی از همکاران و رؤسای خود استفاده کردهاند.
مشکلات حریم خصوصی فراتر از این رویدادهای منفرد است. سیستمهای هوش مصنوعی مدرن با شبکههای گسترده جمعآوری داده کار میکنند و همیشه در حال جمعآوری و مطالعه اطلاعات شخصی هستند. هر بار که فردی از یک سیستم هوش مصنوعی استفاده میکند، دادههای او ممکن است به عنوان مواد آموزشی جمعآوری، مطالعه و گاهی به روشهای غیرمنتظره استفاده شود. شرکتها اکنون مقادیر عظیمی از دادههای شخصی – از جمله مکانهایی که میروید، پیامهای تلفنی شما و حتی دادههای خصوصی درباره زندگی شما – را بدون رضایت یا پیروی از قوانین مشخص جمعآوری میکنند. بسیاری از سیستمها نیز شروع به نشت اطلاعات خصوصی کردهاند. به عنوان مثال، ChatGPT مکالمات خصوصی را به کاربران کاملاً نامرتبط نشان داده است.
این تهدیدهای مرتبط سؤالاتی درباره تصویر بزرگتر مطرح میکنند. مشکلات فنی که امروز میبینیم بازتاب انتخابهایی است که در جلسات هیئت مدیره شرکتها و جلسات سرمایهگذاری انجام میشود. دنبال کردن پول الگوهایی را آشکار میکند که فراتر از خطاهای ساده کدنویسی یا مشکلات سیستم هستند – الگوهایی که ممکن است توضیح دهند چرا این مشکلات به جای بهبود، بدتر میشوند.
چگونه سیلیکون ولی ما را دستکاری میکند.
غولهای فناوری سیلیکون ولی شبکهای از فریب ایجاد کردهاند که در تمام سطوح صنعت نفوذ کرده است. دستکاری حسابشده آنها در افکار عمومی و سیاستهای دولت به شرکتهای بزرگ فناوری اجازه میدهد تا نظارت واقعی را مسدود کنند و در عین حال سیستمهای امروزی را به بازار عرضه کنند، در حالی که تصویری از نوآوری مسئولانه ارائه میدهند. این دستکاری از کمپینهای رسانههای اجتماعی تا تأمین مالی تحقیقات آکادمیک گسترش یافته و حس امنیت کاذبی درباره توسعه هوش مصنوعی ایجاد میکند.
به نحوه تغییر این شرکتها نگاه کنید. گوگل با یک قانون ساده شروع کرد: "شرور نباشید." OpenAI به عنوان یک سازمان غیرانتفاعی آغاز به کار کرد و گفت که میخواهد به بشریت کمک کند؛ اما تا سال ۲۰۰۲، OpenAI از طریق معاملات پیچیدهای به مایکروسافت پیوست و تقریباً نیمی از اولین ۲۵۰ میلیارد مشتری OpenAI را به مایکروسافت وعده داد. در دوران کوتاه مدیرعاملی شان آلتمن، کارمندان نمایشی از وفاداری ارائه دادند – اما کاربران خصوصی فاش کردند که آنها واقعاً میخواستند از فروش سهام آینده محافظت کنند که ارزش شرکت را ۲۸۵ میلیارد دلار تخمین میزد، هرچند که هرگز سودی نکرده بودند. این الگو در سراسر سیلیکون ولی تکرار میشود، جایی که ایدهآلیسم اولیه جای خود را به تصمیمات سودمحور میدهد.
مدیران فناوری کمپینهای روابط عمومی پیچیدهای را برای گمراه کردن عموم اجرا میکنند و از پیامهای به دقت طراحی شده و زمانبندی استراتژیک استفاده میکنند. آنها نامههایی درباره خطرات آینده هوش مصنوعی امضا میکنند در حالی که راهحلهای مشکلات فعلی را مسدود میکنند. به عنوان مثال، الکس تران لکون، رئیس شرکت، ادعا کرد که اطلاعات نادرست ایجاد شده توسط هوش مصنوعی قابل کنترل خواهد بود – درست زمانی که شرکت Liam’s را ساخت، سیستمی که ایجاد محتوای جعلی را برای هر کسی با مهارتهای فنی پایه ساده و قابل دسترس میکند. یا به گوگل نگاه کنید که یک دموی گمراهکننده از Gemini منتشر کرد و قیمت سهام خود را ۵ درصد افزایش داد، که نشان میدهد سود بازار بیشتر از صداقت در ارائه محصولات اهمیت دارد.
میزان نفوذ صنعت به طور فزایندهای در حال رشد است. در سال ۲۰۲۲، تعداد گروههای لابی هوش مصنوعی به ۵۵۰ سازمان رسید، دو برابر تعداد سال قبل. هزینههای لابی فناوری اروپا در تنها ۲۲ ماه به بیش از ۱۰۰ میلیون یورو رسید و ۸ جلسه با رهبران کمیسیون اتحادیه اروپا برگزار کرد، در حالی که بودجه عمومی تنها به ۷۰ مشاور اجازه صحبت داد. شان آلتمن به خوبی از هر دو طرف بازی کرد، به طور عمومی از قوانین حمایت کرد در حالی که لابیگران او قانون هوش مصنوعی اتحادیه اروپا را تضعیف کردند و برای معافیتهای حقنشر فشار آوردند.
این نفوذ از طریق کانالهای خصوصی نیز ادامه مییابد و شبکهای سایهای از قدرت و نفوذ ایجاد میکند. جاستین موسکوویتز، همبنیانگذار فیسبوک، شبکهای از مشاوران هوش مصعوی را تأمین مالی میکند که در سراسر نهادهای کلیدی واشنگتن موقعیتهایی به دست آوردهاند. ورودی آنها دستور اجرایی کاخ سفید در مورد هوش مصعوی را شکل داد، حتی پول فناوری از کارکنان کنگره که قوانین هوش مصعوی را مینوشتند حمایت کرد. شرکتها منابع عمومی را برای انتقال بین دولت و فناوری ایجاد کردند – مانند معاون نخستوزیر سابق بریتانیا، ریک کلگ، که به یک مدیر ارشد متا تبدیل شد، یا مقام سابق فرانسوی که پس از پیوستن به یک استارتآپ هوش مصعوی، قوانین هوش مصعوی اتحادیه اروپا را متوقف کرد. این درهای چرخشی بین دولت و صنعت تضاد منافعی ایجاد میکند که نظارت عمومی را تضعیف میکند.
این قدرت متمرکز شرکتها نیاز به قوانین مشخص را بیش از هر زمان دیگری ضروری میکند. ما به محافظتهای خاص و تأمین مالی نیاز داریم تا نفوذ شرکتها را متعادل کنیم و اطمینان حاصل کنیم که هوش مصعوی به جای سود صرف، به نفع عموم عمل میکند. تسلط صنعت فناوری بر افکار عمومی و سیاستها هیچ جایگاهی برای تأخیر باقی نمیگذارد.
محافظتهای ضروری که اکنون نیاز داریم.
در مواجهه با قدرت متمرکز و دستکاریهای سیلیکون ولی، سه محافظت اساسی به عنوان تضمینهای ضروری برای آینده هوش مصوعی مطرح شدهاند. این نیازهای اصلی – حقوق دادهها، محافظت از حریم خصوصی و شفافیت – باید پایههای هر سیستم نظارتی معناداری را تشکیل دهند، با استانداردهای قابل اجرا به جای وعدههای مبهم.
حقوق دادهها در خط مقدم این مبارزه قرار دارد. به عنوان مثال، اد نیوتون رکس، یک محقق هوش مصنوعی و برنامهنویس، که با ترک موقعیت برتر خود در Stability AI سروصدا به پا کرد. او نمیتوانست سیستمهایی را تحمل کند که از کارهای خلاقانه بدون اجازه یا پرداخت استفاده میکردند. موضع او باعث ایجاد جنبشی برای "کرامت دادهها" شد – اطمینان از این که افراد زمانی که سیستمهای هوش مصنوعی از کار خلاقانه یا دادههای شخصی آنها یاد میگیرند، دستمزد دریافت کنند. این را مانند حقالزحمه موسیقی در نظر بگیرید: پرداختهای کوچکی که در طول زمان جمع میشوند و به ساخت یک سیستم هوش مصنوعی کمک میکنند. اما محافظت از حقوق خلاقانه تنها بخشی از مشکل را حل میکند.
حریم خصوصی شخصی نیز به همان اندازه توسط سیستمهای هوش مصنوعی در حال گسترش تهدید میشود. اقدامات اخیر اتحادیه اروپا مسیری رو به جلو نشان میدهد. دستورالعمل مسئولیت آنها که در اواخر سال ۲۰۲۳ تصویب شد، شرکتها را ملزم میکند شواهدی ارائه دهند که ادعاهای نقض حریم خصوصی را اثبات کند. این دستورالعمل به افراد عادی کمک میکند تا با حذف موانع فنی برای اثبات ادعای خود، با شرکتهای بزرگ فناوری مقابله کنند. این امر کنترل بیشتری را به دست مردم بازمیگرداند.
نیاز به شفافیت نیز پایهای برای اصلاحات معنادار است. یک تیم تحقیقاتی از استنفورد، MIT و پرینستون آزمونی با دو چکپوینت طراحی کردند – که همه چیز از رفتار با کارگران تا اقدامات ایمنی را پوشش میداد. هر شرکت هوش مصنوعی در این آزمون رد شد. بازخورد بهتر شرکتها را مجبور میکند تا مشخص کنند دادههای خود را از کجا میآورند، روشهای آزمایش خود را به اشتراک بگذارند و اجازه دهند متخصصان داده کار آنها را بررسی کنند. شرکتها همچنین باید مشکلات و اثرات منفی سیستمهای خود را ردیابی و گزارش کنند.
این سه محافظت در کنار هم کار میکنند تا سیستمهای هوش مصوعی را متحول کنند. تصور کنید سیستمی که در آن هر بیت از دادههای آموزشی به درستی پرداخت میشود، نقض حریم خصوصی جریمههای خودکار به همراه دارد و دانشمندان آزادانه به دنبال مشکلات در سیستمهای هوش مصوعی هستند. مطمئناً پیشرفت ممکن است کندتر شود – اما این بهتر از پیشروی با خطرات غیرقابل کنترل است.
تحقق این چشمانداز نیازمند قدرت قانونی جدید است. قانون حفاظت از حریم خصوصی و دادههای آمریکا چارچوبی اولیه ارائه میدهد اما نیاز به قوانین سختگیرانهتر دارد. رویکرد اتحادیه اروپا در مسئولیتپذیری شرکتها مسیر امیدوارکننده دیگری را نشان میدهد. موفقیت در گرو این است که متخصصان فنی مستقل – نه دوستان شرکتی یا شرکای کاغذی – مسئول اجرا باشند.
منتقدان ممکن است نگران کند شدن پیشرفت باشند، اما قوانین قوی نوآوری را از بین نمیبرند – بلکه آن را به سمت نتایج بهتر هدایت میکنند. قوانین ایمنی شرکتهای دارویی را از ساخت داروهای جدید بازنداشت؛ بلکه این داروها را ایمنتر کردند. محافظتهای قوی شرکتها را مجبور میکند سیستمهایی بسازند که حقوق اساسی انسان را محترم بشمارند و نظارتی ایجاد کنند که به اندازه کافی قوی باشد تا در برابر نفوذ گسترده سیلیکون ولی مقاومت کند.
این محافظتهای ترکیبی به طور اساسی تکامل هوش مصوعی را تغییر میدهند. شرکتها باید ثابت کنند که سیستمهای آنها مفید هستند نه مضر، کار خود را نشان دهند، بدهیهای خود را پرداخت کنند و اشتباهات خود را اصلاح کنند. این مسیر ممکن است کندتر به نظر برسد، اما به هوش مصوعی منجر میشود که به جای سود، به مردم خدمت میکند.
اقدام عملی
راهحل اجرای این محافظتهای ضروری از هوش مصنوعی نه تنها بر عهده دولتها یا شرکتها، بلکه بر عهده اقدامات فردی و جمعی است. با وجود این که چالشها دلهرهآور به نظر میرسند، تاریخ نشان میدهد که چگونه شهروندان سازمانیافته میتوانند به طور مؤثر در برابر منافع قدرتمند فناوری بایستند و توسعه فناوریهای تحولآفرین را بازسازی کنند.
داستان پروژه تورنتزکی گاگساید این قدرت را به خوبی نشان میدهد. آلفابت، شرکت مادر گوگل، قصد داشت یک محله پر از سنسور در ساحل تورنتزکی بسازد. با حمایت شهردار، نخستوزیر و رهبران فناوری، به نظر میرسید که این پروژه قطعاً پیش خواهد رفت. اما جیمز وایلی، فعال رد، شروع به پرسیدن سؤالاتی درباره حریم خصوصی و نظارت عمومی کرد. گروه کوچک او به جنبشی تبدیل شد که مشکلات واگذاری کنترل فضاهای عمومی به شرکتهای خصوصی را برجسته کرد. تلاشهای مداوم آنها نتیجه داد – تا سال ۲۰۰۰، فشار عمومی آلفابت را مجبور کرد تا کل پروژه را لغو کند، که نشاندهنده پیروزی بزرگی برای حقوق عمومی در برابر منافع شرکتها بود.
مردم میتوانند از طریق کانالهای مختلفی غیر از اعتراضات تغییر ایجاد کنند. موفقیت گواهی "Fairly Trained" نشاندهنده تأثیر انتخابهای هوشمندانه مصرفکنندگان است. این برنامه به مدلهای هوش مصنوعی که به درستی برای دادههای آموزشی خود پرداخت میکنند، مهر تأیید میزند. شرکتهایی که متوجه جهت باد شدهاند، شروع به استفاده از آثار هنری رایگان در سیستمهای هوش مصعوی کردهاند، که ثابت میکند شرکتها میتوانند هوش مصعوی اخلاقی بسازند و در عین حال سودآور بمانند و حقوق خالقان را محترم بشمارند.
با ادامه این تلاشهای مشترک، متخصصان نیز از قدرت جمعی خود استفاده میکنند. پس از این که نرمافزار Designer مایکروسافت باعث ایجاد محتوای مستهجن شد، هنرمندان و خالقان تحریمها و کمپینهای عمومی را سازماندهی کردند. صدای متحد آنها شرکتهای فناوری را وادار کرد تا با آسیبهای واقعی محصولات خود روبرو شوند، که منجر به تغییرات قابل توجهی در طراحی و اجرای محصولات شد.
مشارکت عمومی از طریق مجامع شهروندی در حال رشد است. فرانسه با بحث بزرگ ملی خود نشان داد که چه چیزی ممکن است، که بیش از یک میلیون نفر را در بحثهایی درباره نقش فناوری در جامعه مشارکت داد. ورودی آنها منجر به تغییرات واقعی در سیاستها شد و الگویی برای چگونگی شکلگیری توسعه فناوری توسط مجامع عمومی ایجاد کرد. بحثهای عمومی مشابهی که بر هوش مصعوی متمرکز شدهاند، میتوانند شکاف بین دانش فنی و خرد جامعه را پر کنند.
آموزش به عنوان یک عامل کلیدی در توسعه مسئولانه هوش مصعوی مطرح است. قانون سواد هوش مصعوی در کنگره هدفش آموزش مردم درباره تواناییها و محدودیتهای هوش مصعوی است. حمایت از این برنامهها دانش عمومی را افزایش میدهد، که منجر به نظارت قویتر بر شرکتهای فناوری و تصمیمگیریهای آگاهانهتر درباره اجرای هوش مصعوی در سراسر جامعه میشود.
این رویکردها با هم ترکیب میشوند و یک استراتژی واضح را تشکیل میدهند که سازماندهی مردمی را با فشار بر نهادها ترکیب میکند و در عین حال راههای بهتری برای توسعه فناوری ایجاد میکند. ایجاد تغییرات پایدار به معنای کار همزمان در چندین جبهه است – حمایت از شرکتهای مسئول، مقابله با روشهای مضر، درخواست تغییرات سیاسی و ایجاد راههای جدید برای مشارکت عمومی در تصمیمگیریهای فناوری.
در حال حاضر، مردم هنوز فرصت دارند تا نحوه توسعه هوش مصعوی را شکل دهند، اما این فرصت برای همیشه باز نخواهد ماند. با این که هوش مصعوی به طور فزایندهای در زندگی روزمره نفوذ میکند، فرصتها برای تأثیرگذاری بر جهت آن کاهش مییابد. اما این موفقیتها ثابت میکند که شهروندان سازمانیافته هنوز میتوانند مسیر فناوری را هدایت کنند و اطمینان حاصل کنند که هوش مصعوی به جای افزایش سود شرکتها، به مردم کمک میکند. کلید موفقیت در اقدام قاطعانه در زمانی است که ورودی عمومی هنوز میتواند تأثیرگذار باشد.
خلاصه نهایی
در این بخش از رام کردن سیلیکون ولی نوشته گری اف. مارکوس، آموختید که هوش مصنوعی، با وجود وعده پیشرفتهای انقلابی، در حال حاضر به عنوان یک فناوری عمیقاً معیوب عمل میکند که حریم خصوصی، امنیت و توانایی ما برای تشخیص آنچه میبینیم و میشنویم را تهدید میکند.
مشکل بسیار عمیق است – از سیستمهای هوش مصنوعی که اشتباهات منطقی پایهای مرتکب میشوند و اطلاعات نادرست را پخش میکنند، تا غولهای فناوری که سود را بر ایمنی اولویت میدهند و در عین حال نظارت واقعی را مسدود میکنند. با این حال، امید بزرگی از طریق اقدامات جمعی وجود دارد، همانطور که جنبشهای موفق شهروندی نشان دادهاند که توانستهاند تغییراتی در توسعه هوش مصعوی ایجاد کنند. از طریق انتخابهای مصرفکنندگان، فعالیتهای سازمانیافته و مشارکت عمومی در بحثهای سیاستی، ما هنوز میتوانیم نحوه تکامل این فناوری را شکل دهیم – اما تنها در صورتی که اکنون اقدام کنیم، در حالی که هنوز فرصت داریم تا اطمینان حاصل کنیم که هوش مصعوی به جای منافع شرکتها، به نفع عموم عمل میکند.
خوب، این خلاصه هم تمام شد و امیدواریم از آن لذت برده باشید.
- ۰۳/۱۲/۱۲
اگر قبلا در بیان ثبت نام کرده اید لطفا ابتدا وارد شوید، در غیر این صورت می توانید ثبت نام کنید.