هر روز چیزی جدید یاد بگیرید و به موفقیت نزدیک‌تر شوید|خلاصه پرفروش‌ترین کتاب‌ها

با Blinkist، خلاصه‌های مهم‌ترین کتاب‌های غیرداستانی رو به راحتی از هرجایی در دسترس شماست

هر روز چیزی جدید یاد بگیرید و به موفقیت نزدیک‌تر شوید|خلاصه پرفروش‌ترین کتاب‌ها

با Blinkist، خلاصه‌های مهم‌ترین کتاب‌های غیرداستانی رو به راحتی از هرجایی در دسترس شماست

با دانش و اقدام در برابر دستکاری هوش مصنوعی مقاومت کنید.

هوش مصنوعی تجربیات روزمره شما را به روش‌های ظریفی شکل می‌دهد. هر بار که گوشی خود را باز می‌کنید، ایمیل‌های خود را می‌خوانید یا در شبکه‌های اجتماعی گشت‌وگذار می‌کنید، سیستم‌های هوش مصنوعی به آرامی در پس‌زمینه کار می‌کنند، پیشنهاداتی ارائه می‌دهند و آنچه می‌بینید را تنظیم می‌کنند. این تعاملات کوچک در کنار هم تغییرات بزرگی در نحوه پردازش اطلاعات، تصمیم‌گیری و دیدگاه شما نسبت به جهان اطراف ایجاد می‌کنند.

در این بخش، شما با قابلیت‌های واقعی سیستم‌های فعلی هوش مصنوعی آشنا می‌شوید و دقیقاً می‌فهمید که چه چیزی در پشت آن رابط‌های روان و پیام‌های بازاریابی صیقل‌یافته اتفاق می‌افتد. شما روش‌های عملی برای تشخیص محتوای تولید شده توسط هوش مصنوعی، محافظت از اطلاعات شخصی خود و انتخاب‌های هوشمندانه در مورد اینکه کدام ابزارهای هوش مصنوعی شایسته اعتماد شما هستند، یاد خواهید گرفت. این بینش‌ها آگاهی فناوری شما را تقویت می‌کند و دستورالعمل‌های واضحی برای استفاده مؤثر از هوش مصنوعی، چه در محل کار و چه در زندگی شخصی، به شما ارائه می‌دهد.

بیایید با نگاهی به نحوه عملکرد واقعی این سیستم‌ها و جایی که کم‌می‌آورند، شروع کنیم.

چرا هوش مصنوعی فعلی چیزی نیست که ما نیاز داریم.

هوش مصنوعی آینده‌ای پر از پیشرفت‌ها و دستاوردهای فناوری را نوید می‌دهد. اما سیستم‌های فعلی هوش مصنوعی، از جمله چت‌بات‌های محبوب و ابزارهای خلاقانه، محدودیت‌های قابل توجهی دارند که سؤالات جدی در مورد قابلیت اطمینان و مفید بودن آن‌ها ایجاد می‌کند.

بیایید به نحوه عملکرد این سیستم‌ها و شکست‌های آن‌ها نگاهی بیندازیم. ChatGPT به عنوان یک مثال بارز مطرح می‌شود. مکالمات آن ممکن است در سطح هوشمند به نظر برسند، اما مکانیک زیربنایی داستان دیگری را روایت می‌کند. این سیستم به سادگی کلمه بعدی را بر اساس الگوهای داده‌ها پیش‌بینی می‌کند، بدون اینکه درک واقعی یا تفکر منطقی داشته باشد. این امر منجر به چیزی می‌شود که محققان آن را "توهمات" می‌نامند – گزاره‌های نادرستی که با اطمینان مصنوعی ارائه می‌شوند.

برخی مثال‌ها این موضوع را به وضوح نشان می‌دهند. وقتی از ChatGPT در مورد پیشینه یک استاد حقوق سؤال شد، یک رسوایی جنسی تخیلی ساخت و به مقالات خبری که هرگز وجود نداشتند، اشاره کرد. در مورد دیگری، ادعا کرد که یک کیلوگرم پر وزن کمتری از یک کیلوگرم آجر دارد. چنین اشتباهاتی نشان می‌دهد که تفاوت زیادی بین هوش ظاهری و درک واقعی وجود دارد.

سیستم‌های هوش مصنوعی بصری نیز با مشکلات مشابهی روبرو هستند. از یک سیستم خواسته شد تصویری از یک مرد کوچک با سیم‌های سلولی به عنوان میکروار* ایجاد کند، اما صحنه‌ای آزاردهنده تولید کرد که در آن میکروار* از میان مرد عبور کرده بود. با این حال، چهره مرد آرام باقی مانده بود – هوش مصنوعی این تناقض آشکار را از دست داده بود. بار دیگر، وقتی از سیستم خواسته شد یک فیل را در یک صحنه ساحلی پنهان کند، سیستم یک فیل به شکل ابر کشید، که نشان می‌داد مفهوم پنهان‌سازی را درک نکرده است.

این مشکلات به یک مسئله بزرگتر اشاره می‌کنند: فناوری هوش مصنوعی قبل از انتشار گسترده نیاز به توسعه بیشتری دارد. سیستم‌های فعلی می‌توانند متن‌های روان و تصاویر چشم‌نواز تولید کنند، اما فاقد مهارت‌های استدلالی پایه هستند. آن‌ها نمی‌توانند واقعیت‌ها را تأیید کنند، مسائل ساده ریاضی را حل کنند یا سازگاری منطقی را حفظ کنند.

عواقب واقعی این مشکلات قبلاً ظاهر شده‌اند. سیستم‌های حقوقی هوش مصنوعی به پرونده‌های دادگاهی جعلی استناد کرده‌اند و وکلا را مجبور به اصلاحات شرم‌آور و عذرخواهی از قضات کرده‌اند. چت‌بات‌های پزشکی توصیه‌های نگران‌کننده‌ای ارائه می‌دهند – یک مطالعه استاندارد نشان داد که آن‌ها تنها در درصدی از موارد اطلاعات صحیح ارائه می‌دادند.

این سیستم‌ها با وجود غیرقابل اطمینان بودن، به دلیل عوامل اقتصادی همچنان در حال گسترش هستند. توسعه‌دهندگان هوش مصنوعی معتقدند که مقیاس‌پذیری روش‌های موجود از حل مشکلات اساسی درک و استدلال ماشین، مقرون‌به‌صرفه‌تر است. این عجله برای ورود به بازار نه تنها مشکلات فنی ایجاد می‌کند، بلکه درهای خطرات اجتماعی جدی را نیز باز می‌کند.

ترکیب سیستم‌های غیرقابل اطمینان و استقرار سریع، شرایط ایده‌آلی برای آسیب‌های گسترده ایجاد کرده است. با گسترش این ابزارهای هوش مصنوعی معیوب در جامعه، خطراتی به همراه می‌آورند که فراتر از مشکلات فنی ساده هستند. از دخالت در انتخابات تا نقض حریم خصوصی، این خطرات نیازمند توجه فوری ما هستند – و درک آن‌ها با شناخت این که چقدر عمیقاً بر جهان ما تأثیر گذاشته‌اند، آغاز می‌شود.

فوری‌ترین تهدیدها

نقایص اساسی در سیستم‌های هوش مصنوعی نگرانی‌های جدی ایجاد می‌کند، اما گسترش سریع آن‌ها در جامعه خطرات فوری به وجود آورده است. مشکلات فنی به تهدیدهای واقعی تبدیل شده‌اند که همین حالا در حال تغییر جهان ما هستند.

اعتماد عمومی با چالش‌های جدی مواجه شده است، زیرا سیستم‌های هوش مصنوعی محتوای جعلی را سریع‌تر و متقاعدکننده‌تر از همیشه ایجاد می‌کنند. به عنوان مثال، در انتخابات اسلواکی در سال ۲۰۰۲، یک فایل صوتی جعلی در سراسر کشور پخش شد و ادعاهای نادرستی درباره این که نامزد اصلی قصد تقلب در انتخابات را دارد، مطرح کرد. این مورد تنها یک اتفاق منفرد نبود. ترفندهای مشابه هوش مصنوعی در کشورهای دیگر نیز مشاهده شده است که هم انتخابات و هم درگیری‌های بین‌المللی را هدف قرار می‌دهند و نحوه جنگ اطلاعاتی را تغییر می‌دهند.

این فریب‌ها به امنیت شخصی نیز گسترش یافته‌اند و به مجرمان راه‌های جدیدی برای فریب مردم و سرقت پول داده‌اند. هوش مصنوعی اکنون می‌تواند صداها را کپی کند و ویدیوهای واقع‌گرایانه‌ای ایجاد کند که حتی متخصصان باتجربه نیز فریب آن را می‌خورند. تصور کنید والدین تماس‌های تلفنی دریافت می‌کنند که دقیقاً شبیه صدای فرزندانشان است و مجرمان از این صداهای کپی‌شده برای جعل آدم‌ربایی و درخواست پول استفاده می‌کنند. این فناوری آنقدر پیشرفته شده است که تا اوایل سال ۲۰۰۲، کلاهبرداران با استفاده از تماس‌های ویدیویی که شبیه مدیران واقعی شرکت بودند، ۲۹ میلیون دلار از یک بانک در هنگ‌کنگ سرقت کردند.

در مورد ویدیوهای جعلی، فناوری دیپ‌فیک مستقیماً به کرامت شخصی و میزان اعتماد ما به آنچه می‌بینیم تهدید می‌کند. ایجاد محتوای جعلی اکنون سریع، ارزان و بسیار متقاعدکننده است. به آنچه برای تیلور سوئیفت در اوایل سال ۲۰۰۲ اتفاق افتاد نگاه کنید: تصاویر صریح تولید شده توسط هوش مصنوعی در عرض چند ساعت به صورت آنلاین پخش شد و قبل از حذف شدن، میلیون‌ها بار در شبکه‌های اجتماعی به اشتراک گذاشته شد. بعداً در همان سال، در ماه اوت، ترامپ تصاویر تولید شده توسط هوش مصنوعی را به اشتراک گذاشت که به اشتباه ادعا می‌کرد سوئیفت و طرفدارانش از کمپین او حمایت می‌کنند، با وجود این که او سابقه حمایت از نامزدهای دموکرات را داشت. این مشکل به مدارس نیز سرایت کرده است، جایی که دانش‌آموزان تصاویر صریح جعلی از همکلاسی‌های خود ایجاد می‌کنند. برخی کارمندان نیز از این فناوری برای ایجاد ضبط‌های جعلی از همکاران و رؤسای خود استفاده کرده‌اند.

مشکلات حریم خصوصی فراتر از این رویدادهای منفرد است. سیستم‌های هوش مصنوعی مدرن با شبکه‌های گسترده جمع‌آوری داده کار می‌کنند و همیشه در حال جمع‌آوری و مطالعه اطلاعات شخصی هستند. هر بار که فردی از یک سیستم هوش مصنوعی استفاده می‌کند، داده‌های او ممکن است به عنوان مواد آموزشی جمع‌آوری، مطالعه و گاهی به روش‌های غیرمنتظره استفاده شود. شرکت‌ها اکنون مقادیر عظیمی از داده‌های شخصی – از جمله مکان‌هایی که می‌روید، پیام‌های تلفنی شما و حتی داده‌های خصوصی درباره زندگی شما – را بدون رضایت یا پیروی از قوانین مشخص جمع‌آوری می‌کنند. بسیاری از سیستم‌ها نیز شروع به نشت اطلاعات خصوصی کرده‌اند. به عنوان مثال، ChatGPT مکالمات خصوصی را به کاربران کاملاً نامرتبط نشان داده است.

این تهدیدهای مرتبط سؤالاتی درباره تصویر بزرگتر مطرح می‌کنند. مشکلات فنی که امروز می‌بینیم بازتاب انتخاب‌هایی است که در جلسات هیئت مدیره شرکت‌ها و جلسات سرمایه‌گذاری انجام می‌شود. دنبال کردن پول الگوهایی را آشکار می‌کند که فراتر از خطاهای ساده کدنویسی یا مشکلات سیستم هستند – الگوهایی که ممکن است توضیح دهند چرا این مشکلات به جای بهبود، بدتر می‌شوند.

چگونه سیلیکون ولی ما را دستکاری می‌کند.

غول‌های فناوری سیلیکون ولی شبکه‌ای از فریب ایجاد کرده‌اند که در تمام سطوح صنعت نفوذ کرده است. دستکاری حساب‌شده آن‌ها در افکار عمومی و سیاست‌های دولت به شرکت‌های بزرگ فناوری اجازه می‌دهد تا نظارت واقعی را مسدود کنند و در عین حال سیستم‌های امروزی را به بازار عرضه کنند، در حالی که تصویری از نوآوری مسئولانه ارائه می‌دهند. این دستکاری از کمپین‌های رسانه‌های اجتماعی تا تأمین مالی تحقیقات آکادمیک گسترش یافته و حس امنیت کاذبی درباره توسعه هوش مصنوعی ایجاد می‌کند.

به نحوه تغییر این شرکت‌ها نگاه کنید. گوگل با یک قانون ساده شروع کرد: "شرور نباشید." OpenAI به عنوان یک سازمان غیرانتفاعی آغاز به کار کرد و گفت که می‌خواهد به بشریت کمک کند؛ اما تا سال ۲۰۰۲، OpenAI از طریق معاملات پیچیده‌ای به مایکروسافت پیوست و تقریباً نیمی از اولین ۲۵۰ میلیارد مشتری OpenAI را به مایکروسافت وعده داد. در دوران کوتاه مدیرعاملی شان آلتمن، کارمندان نمایشی از وفاداری ارائه دادند – اما کاربران خصوصی فاش کردند که آن‌ها واقعاً می‌خواستند از فروش سهام آینده محافظت کنند که ارزش شرکت را ۲۸۵ میلیارد دلار تخمین می‌زد، هرچند که هرگز سودی نکرده بودند. این الگو در سراسر سیلیکون ولی تکرار می‌شود، جایی که ایده‌آلیسم اولیه جای خود را به تصمیمات سودمحور می‌دهد.

مدیران فناوری کمپین‌های روابط عمومی پیچیده‌ای را برای گمراه کردن عموم اجرا می‌کنند و از پیام‌های به دقت طراحی شده و زمان‌بندی استراتژیک استفاده می‌کنند. آن‌ها نامه‌هایی درباره خطرات آینده هوش مصنوعی امضا می‌کنند در حالی که راه‌حل‌های مشکلات فعلی را مسدود می‌کنند. به عنوان مثال، الکس تران لکون، رئیس شرکت، ادعا کرد که اطلاعات نادرست ایجاد شده توسط هوش مصنوعی قابل کنترل خواهد بود – درست زمانی که شرکت Liam’s را ساخت، سیستمی که ایجاد محتوای جعلی را برای هر کسی با مهارت‌های فنی پایه ساده و قابل دسترس می‌کند. یا به گوگل نگاه کنید که یک دموی گمراه‌کننده از Gemini منتشر کرد و قیمت سهام خود را ۵ درصد افزایش داد، که نشان می‌دهد سود بازار بیشتر از صداقت در ارائه محصولات اهمیت دارد.

میزان نفوذ صنعت به طور فزاینده‌ای در حال رشد است. در سال ۲۰۲۲، تعداد گروه‌های لابی هوش مصنوعی به ۵۵۰ سازمان رسید، دو برابر تعداد سال قبل. هزینه‌های لابی فناوری اروپا در تنها ۲۲ ماه به بیش از ۱۰۰ میلیون یورو رسید و ۸ جلسه با رهبران کمیسیون اتحادیه اروپا برگزار کرد، در حالی که بودجه عمومی تنها به ۷۰ مشاور اجازه صحبت داد. شان آلتمن به خوبی از هر دو طرف بازی کرد، به طور عمومی از قوانین حمایت کرد در حالی که لابی‌گران او قانون هوش مصنوعی اتحادیه اروپا را تضعیف کردند و برای معافیت‌های حق‌نشر فشار آوردند.

این نفوذ از طریق کانال‌های خصوصی نیز ادامه می‌یابد و شبکه‌ای سایه‌ای از قدرت و نفوذ ایجاد می‌کند. جاستین موسکوویتز، هم‌بنیان‌گذار فیس‌بوک، شبکه‌ای از مشاوران هوش مصعوی را تأمین مالی می‌کند که در سراسر نهادهای کلیدی واشنگتن موقعیت‌هایی به دست آورده‌اند. ورودی آن‌ها دستور اجرایی کاخ سفید در مورد هوش مصعوی را شکل داد، حتی پول فناوری از کارکنان کنگره که قوانین هوش مصعوی را می‌نوشتند حمایت کرد. شرکت‌ها منابع عمومی را برای انتقال بین دولت و فناوری ایجاد کردند – مانند معاون نخست‌وزیر سابق بریتانیا، ریک کلگ، که به یک مدیر ارشد متا تبدیل شد، یا مقام سابق فرانسوی که پس از پیوستن به یک استارت‌آپ هوش مصعوی، قوانین هوش مصعوی اتحادیه اروپا را متوقف کرد. این درهای چرخشی بین دولت و صنعت تضاد منافعی ایجاد می‌کند که نظارت عمومی را تضعیف می‌کند.

این قدرت متمرکز شرکت‌ها نیاز به قوانین مشخص را بیش از هر زمان دیگری ضروری می‌کند. ما به محافظت‌های خاص و تأمین مالی نیاز داریم تا نفوذ شرکت‌ها را متعادل کنیم و اطمینان حاصل کنیم که هوش مصعوی به جای سود صرف، به نفع عموم عمل می‌کند. تسلط صنعت فناوری بر افکار عمومی و سیاست‌ها هیچ جایگاهی برای تأخیر باقی نمی‌گذارد.

محافظت‌های ضروری که اکنون نیاز داریم.

در مواجهه با قدرت متمرکز و دستکاری‌های سیلیکون ولی، سه محافظت اساسی به عنوان تضمین‌های ضروری برای آینده هوش مصوعی مطرح شده‌اند. این نیازهای اصلی – حقوق داده‌ها، محافظت از حریم خصوصی و شفافیت – باید پایه‌های هر سیستم نظارتی معناداری را تشکیل دهند، با استانداردهای قابل اجرا به جای وعده‌های مبهم.

حقوق داده‌ها در خط مقدم این مبارزه قرار دارد. به عنوان مثال، اد نیوتون رکس، یک محقق هوش مصنوعی و برنامه‌نویس، که با ترک موقعیت برتر خود در Stability AI سروصدا به پا کرد. او نمی‌توانست سیستم‌هایی را تحمل کند که از کارهای خلاقانه بدون اجازه یا پرداخت استفاده می‌کردند. موضع او باعث ایجاد جنبشی برای "کرامت داده‌ها" شد – اطمینان از این که افراد زمانی که سیستم‌های هوش مصنوعی از کار خلاقانه یا داده‌های شخصی آن‌ها یاد می‌گیرند، دستمزد دریافت کنند. این را مانند حق‌الزحمه موسیقی در نظر بگیرید: پرداخت‌های کوچکی که در طول زمان جمع می‌شوند و به ساخت یک سیستم هوش مصنوعی کمک می‌کنند. اما محافظت از حقوق خلاقانه تنها بخشی از مشکل را حل می‌کند.

حریم خصوصی شخصی نیز به همان اندازه توسط سیستم‌های هوش مصنوعی در حال گسترش تهدید می‌شود. اقدامات اخیر اتحادیه اروپا مسیری رو به جلو نشان می‌دهد. دستورالعمل مسئولیت آن‌ها که در اواخر سال ۲۰۲۳ تصویب شد، شرکت‌ها را ملزم می‌کند شواهدی ارائه دهند که ادعاهای نقض حریم خصوصی را اثبات کند. این دستورالعمل به افراد عادی کمک می‌کند تا با حذف موانع فنی برای اثبات ادعای خود، با شرکت‌های بزرگ فناوری مقابله کنند. این امر کنترل بیشتری را به دست مردم بازمی‌گرداند.

نیاز به شفافیت نیز پایه‌ای برای اصلاحات معنادار است. یک تیم تحقیقاتی از استنفورد، MIT و پرینستون آزمونی با دو چک‌پوینت طراحی کردند – که همه چیز از رفتار با کارگران تا اقدامات ایمنی را پوشش می‌داد. هر شرکت هوش مصنوعی در این آزمون رد شد. بازخورد بهتر شرکت‌ها را مجبور می‌کند تا مشخص کنند داده‌های خود را از کجا می‌آورند، روش‌های آزمایش خود را به اشتراک بگذارند و اجازه دهند متخصصان داده کار آن‌ها را بررسی کنند. شرکت‌ها همچنین باید مشکلات و اثرات منفی سیستم‌های خود را ردیابی و گزارش کنند.

این سه محافظت در کنار هم کار می‌کنند تا سیستم‌های هوش مصوعی را متحول کنند. تصور کنید سیستمی که در آن هر بیت از داده‌های آموزشی به درستی پرداخت می‌شود، نقض حریم خصوصی جریمه‌های خودکار به همراه دارد و دانشمندان آزادانه به دنبال مشکلات در سیستم‌های هوش مصوعی هستند. مطمئناً پیشرفت ممکن است کندتر شود – اما این بهتر از پیشروی با خطرات غیرقابل کنترل است.

تحقق این چشم‌انداز نیازمند قدرت قانونی جدید است. قانون حفاظت از حریم خصوصی و داده‌های آمریکا چارچوبی اولیه ارائه می‌دهد اما نیاز به قوانین سخت‌گیرانه‌تر دارد. رویکرد اتحادیه اروپا در مسئولیت‌پذیری شرکت‌ها مسیر امیدوارکننده دیگری را نشان می‌دهد. موفقیت در گرو این است که متخصصان فنی مستقل – نه دوستان شرکتی یا شرکای کاغذی – مسئول اجرا باشند.

منتقدان ممکن است نگران کند شدن پیشرفت باشند، اما قوانین قوی نوآوری را از بین نمی‌برند – بلکه آن را به سمت نتایج بهتر هدایت می‌کنند. قوانین ایمنی شرکت‌های دارویی را از ساخت داروهای جدید بازنداشت؛ بلکه این داروها را ایمن‌تر کردند. محافظت‌های قوی شرکت‌ها را مجبور می‌کند سیستم‌هایی بسازند که حقوق اساسی انسان را محترم بشمارند و نظارتی ایجاد کنند که به اندازه کافی قوی باشد تا در برابر نفوذ گسترده سیلیکون ولی مقاومت کند.

این محافظت‌های ترکیبی به طور اساسی تکامل هوش مصوعی را تغییر می‌دهند. شرکت‌ها باید ثابت کنند که سیستم‌های آن‌ها مفید هستند نه مضر، کار خود را نشان دهند، بدهی‌های خود را پرداخت کنند و اشتباهات خود را اصلاح کنند. این مسیر ممکن است کندتر به نظر برسد، اما به هوش مصوعی منجر می‌شود که به جای سود، به مردم خدمت می‌کند.

اقدام عملی

راه‌حل اجرای این محافظت‌های ضروری از هوش مصنوعی نه تنها بر عهده دولت‌ها یا شرکت‌ها، بلکه بر عهده اقدامات فردی و جمعی است. با وجود این که چالش‌ها دلهره‌آور به نظر می‌رسند، تاریخ نشان می‌دهد که چگونه شهروندان سازمان‌یافته می‌توانند به طور مؤثر در برابر منافع قدرتمند فناوری بایستند و توسعه فناوری‌های تحول‌آفرین را بازسازی کنند.

داستان پروژه تورنتزکی گاگ‌ساید این قدرت را به خوبی نشان می‌دهد. آلفابت، شرکت مادر گوگل، قصد داشت یک محله پر از سنسور در ساحل تورنتزکی بسازد. با حمایت شهردار، نخست‌وزیر و رهبران فناوری، به نظر می‌رسید که این پروژه قطعاً پیش خواهد رفت. اما جیمز وایلی، فعال رد، شروع به پرسیدن سؤالاتی درباره حریم خصوصی و نظارت عمومی کرد. گروه کوچک او به جنبشی تبدیل شد که مشکلات واگذاری کنترل فضاهای عمومی به شرکت‌های خصوصی را برجسته کرد. تلاش‌های مداوم آن‌ها نتیجه داد – تا سال ۲۰۰۰، فشار عمومی آلفابت را مجبور کرد تا کل پروژه را لغو کند، که نشان‌دهنده پیروزی بزرگی برای حقوق عمومی در برابر منافع شرکت‌ها بود.

مردم می‌توانند از طریق کانال‌های مختلفی غیر از اعتراضات تغییر ایجاد کنند. موفقیت گواهی "Fairly Trained" نشان‌دهنده تأثیر انتخاب‌های هوشمندانه مصرف‌کنندگان است. این برنامه به مدل‌های هوش مصنوعی که به درستی برای داده‌های آموزشی خود پرداخت می‌کنند، مهر تأیید می‌زند. شرکت‌هایی که متوجه جهت باد شده‌اند، شروع به استفاده از آثار هنری رایگان در سیستم‌های هوش مصعوی کرده‌اند، که ثابت می‌کند شرکت‌ها می‌توانند هوش مصعوی اخلاقی بسازند و در عین حال سودآور بمانند و حقوق خالقان را محترم بشمارند.

با ادامه این تلاش‌های مشترک، متخصصان نیز از قدرت جمعی خود استفاده می‌کنند. پس از این که نرم‌افزار Designer مایکروسافت باعث ایجاد محتوای مستهجن شد، هنرمندان و خالقان تحریم‌ها و کمپین‌های عمومی را سازماندهی کردند. صدای متحد آن‌ها شرکت‌های فناوری را وادار کرد تا با آسیب‌های واقعی محصولات خود روبرو شوند، که منجر به تغییرات قابل توجهی در طراحی و اجرای محصولات شد.

مشارکت عمومی از طریق مجامع شهروندی در حال رشد است. فرانسه با بحث بزرگ ملی خود نشان داد که چه چیزی ممکن است، که بیش از یک میلیون نفر را در بحث‌هایی درباره نقش فناوری در جامعه مشارکت داد. ورودی آن‌ها منجر به تغییرات واقعی در سیاست‌ها شد و الگویی برای چگونگی شکل‌گیری توسعه فناوری توسط مجامع عمومی ایجاد کرد. بحث‌های عمومی مشابهی که بر هوش مصعوی متمرکز شده‌اند، می‌توانند شکاف بین دانش فنی و خرد جامعه را پر کنند.

آموزش به عنوان یک عامل کلیدی در توسعه مسئولانه هوش مصعوی مطرح است. قانون سواد هوش مصعوی در کنگره هدفش آموزش مردم درباره توانایی‌ها و محدودیت‌های هوش مصعوی است. حمایت از این برنامه‌ها دانش عمومی را افزایش می‌دهد، که منجر به نظارت قوی‌تر بر شرکت‌های فناوری و تصمیم‌گیری‌های آگاهانه‌تر درباره اجرای هوش مصعوی در سراسر جامعه می‌شود.

این رویکردها با هم ترکیب می‌شوند و یک استراتژی واضح را تشکیل می‌دهند که سازمان‌دهی مردمی را با فشار بر نهادها ترکیب می‌کند و در عین حال راه‌های بهتری برای توسعه فناوری ایجاد می‌کند. ایجاد تغییرات پایدار به معنای کار همزمان در چندین جبهه است – حمایت از شرکت‌های مسئول، مقابله با روش‌های مضر، درخواست تغییرات سیاسی و ایجاد راه‌های جدید برای مشارکت عمومی در تصمیم‌گیری‌های فناوری.

در حال حاضر، مردم هنوز فرصت دارند تا نحوه توسعه هوش مصعوی را شکل دهند، اما این فرصت برای همیشه باز نخواهد ماند. با این که هوش مصعوی به طور فزاینده‌ای در زندگی روزمره نفوذ می‌کند، فرصت‌ها برای تأثیرگذاری بر جهت آن کاهش می‌یابد. اما این موفقیت‌ها ثابت می‌کند که شهروندان سازمان‌یافته هنوز می‌توانند مسیر فناوری را هدایت کنند و اطمینان حاصل کنند که هوش مصعوی به جای افزایش سود شرکت‌ها، به مردم کمک می‌کند. کلید موفقیت در اقدام قاطعانه در زمانی است که ورودی عمومی هنوز می‌تواند تأثیرگذار باشد.

خلاصه نهایی

در این بخش از رام کردن سیلیکون ولی نوشته گری اف. مارکوس، آموختید که هوش مصنوعی، با وجود وعده پیشرفت‌های انقلابی، در حال حاضر به عنوان یک فناوری عمیقاً معیوب عمل می‌کند که حریم خصوصی، امنیت و توانایی ما برای تشخیص آنچه می‌بینیم و می‌شنویم را تهدید می‌کند.

مشکل بسیار عمیق است – از سیستم‌های هوش مصنوعی که اشتباهات منطقی پایه‌ای مرتکب می‌شوند و اطلاعات نادرست را پخش می‌کنند، تا غول‌های فناوری که سود را بر ایمنی اولویت می‌دهند و در عین حال نظارت واقعی را مسدود می‌کنند. با این حال، امید بزرگی از طریق اقدامات جمعی وجود دارد، همان‌طور که جنبش‌های موفق شهروندی نشان داده‌اند که توانسته‌اند تغییراتی در توسعه هوش مصعوی ایجاد کنند. از طریق انتخاب‌های مصرف‌کنندگان، فعالیت‌های سازمان‌یافته و مشارکت عمومی در بحث‌های سیاستی، ما هنوز می‌توانیم نحوه تکامل این فناوری را شکل دهیم – اما تنها در صورتی که اکنون اقدام کنیم، در حالی که هنوز فرصت داریم تا اطمینان حاصل کنیم که هوش مصعوی به جای منافع شرکت‌ها، به نفع عموم عمل می‌کند.

خوب، این خلاصه هم تمام شد و امیدواریم از آن لذت برده باشید.

  • خلاصه گر کتاب

نظرات (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

کاربران بیان میتوانند بدون نیاز به تأیید، نظرات خود را ارسال کنند.
اگر قبلا در بیان ثبت نام کرده اید لطفا ابتدا وارد شوید، در غیر این صورت می توانید ثبت نام کنید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی

آیا دوست دارید به سرعت و به سادگی از جدیدترین ایده‌ها و مفاهیم کتاب‌های پرفروش آگاه شوید؟ Blinkist بهترین همراه شما برای یادگیری سریع‌تر و هوشمندانه‌تر است.

با Blinkist، می‌توانید خلاصه‌های جذاب و مفید بیش از 3000 کتاب غیر داستانی را در حوزه‌های مختلف مانند موفقیت شخصی، روانشناسی، کسب و کار، خودیاری و بسیاری دیگر بخوانید.
تصور کنید که اطلاعات کلیدی را از کتاب‌های پرفروش و پادکست برتر تنها در 15 دقیقه دریافت کنید. بله، ممکن است و شما با مهم‌ترین نکات و ایده‌های کتاب آشنا می‌کند.

چه بخواهید شغل خود را تقویت کنید، روی رشد شخصی خود کار کنید یا صرفاً کنجکاو بمانید، Blinkist یادگیری را حتی با برنامه شلوغ شما آسان و سرگرم کننده می کند.

پیوندها