ما در عصری زندگی میکنیم که هر روز نقش نرمافزارها در زندگی ما پررنگتر میشود و به ما یاد میدهند که چه فکری کنیم یا چگونه فکر کنیم. اما در میان، یکی از مهمترین پلتفرمهای انتشار خبر، به شکلی قدیمی خبرها و اطلاعات گوناگون را در اختیار ما قرار میدهد. در فیسبوک گروه خاصی از افرادی که انتخاب شدهاند، برای ما تعیین میکنند که چه چیزی ارزش خبری دارد. اینطور که پیداست فیسبوک از افرادی با عنوان شغلی متصدی خبر استفاده میکند تا تعیین کند که کاربرانش چه تاپیکهای را باید بینند و کدام خبرها و موضوعات را نباید ببینند. شاید این موضوع خیال کسانی را که نگران غلبهی ماشینها بر تمام جنبههای زندگی انسان هستند راحت کند، با این حال در فیسبوک ما با مشکل فقدان یک الگوریتم اتوماتیک مواجه هستیم.
بحث برانگیزترین انتقادی که تاکنون به فیسبوک وارد شده، این است که بخش تاپیکهای روز این شبکهی اجتماعی با نوعی تعصب ضدمحافظهکاری انتخاب شدهاند؛ یعنی اخبار مربوط به حزب جمهوریخواه انتخابات آمریکا را پوشش داده نشده. در این گزیدهها، به صورت نامتناسبی اخبار و دیدگاههای محافظهکارانه سرکوب میشوند. اما این شرکت همواره با قاطعیت چنین ادعایی را رد میکند. یکی از وبسایتهای فعال در حوزهی تکنولوژی به نام Gizmodo برای اولین بار در ماه مارس مقالهای دربارهی رویکرد فیسبوک به اخبار منتشر کرد. در این مقاله دو دلیل آورده شده بود که چرا کار فیسبوک صرفه نظر هر گونه تعصب سیاسی، ایراد دارد. اول این که فیسبوک برای انتخاب خبرهای روز از افرادی استفاده میکند که متصدی انتخاب خبر هستند. این در حالی است که عموم مردم تصور میکنند خبرها کاملا عاری از هر گونه تعصب رتبهبندی شدهاند. انسان هر چقدر هم که روشنفکر باشد و ذهن بازی داشته باشد، اصولا نمیتواند عاری از هر گونه جهتگیری تصمیم بگیرد و گزینش کند. دوم اینکه این در محیط ادارهی فیسبوک با این متصدیان خبر رفتار محترمانهای نمیشود و دیگر کارکنان این شرکت ارزشی برای آنها قائل نیستند. این افراد در فرهنگ داخلی شرکت فیسبوک جایی ندارند و به آنها اعتبار یا امکان سرپرستی داده نمیشود، بلکه صرفا با دید «اخبار روز» به آنها نگاه میشود. در کار این افراد کمیت بیشترین اهمیت را دارد.
اما حضور عاملان انسانی برای انتخاب خبر و جهتگیری فکری مسئلهی اصلی نیست. بلکه موضوع اصلی این است که قدرتمندترین پلتفرم اشتراکگذاری اطلاعات در جهان میتواند به شکل مرموزی انتخاب کند که چه خبری دیده میشود. پلتفرمهایی مثل فیسبوک اخبار و اطلاعات را با عنوانهایی مثل «تاپیکهای روز» (trending topics) یا معیارهایی مثل شباهت و ارتباط، انتخاب کرده و به خورد ما میدهند. اما ما نمیدانیم که این وبسایت دقیقا چگونه و بر چه مبنایی اخبار را فیلتر میکند.
این موضوع اهمیت زیادی دارد چون کوچکترین تغییرات در نوع اطلاعاتی که در اختیار ما قرار میگیرد، میتواند به شکل قابل ملاحظهای بر رفتار ما تاثیر بگذارد.
برای اینکه بفهمیم چرا این موضوع مهم است نکتهای را از علم رفتارشناسی به شما توضیح میدهیم. اکثر دولتها و مقامات در نقاط مختلف جهان از تاکتیک خاصی برای تغییر نگرش مردم استفاده میکنند که به آن «محرک» یا nudge میگویند. از این تاکتیک هوشمندانه زمانی استفاده میشود که دولتها میخواهند مردم را تشویق کنند تا رفتار خاصی را در پیش بگیرند. یک مثال معروف این است که کاری کنیم مردم به جای اینکه تصمیم بگیرند عضوشان را اهدا کنند، تصمیم بگیرند این کار را نکنند. یعنی طبق سیاست دولت حالت پیشفرض این است که اعضای بدن افراد پس از مرگ مغزی آنها اهدا شود، اما آنها این حق انتخاب را دارند که عضو بدنشان اهدا نشود. به این ترتیب، به جای اینکه از مردم بخواهیم به عنوان اهداکنندهی عضو ثبت نام کنند، با سیستم «نمیخواهم» به طور اتوماتیک فرض بر این گذاشته میشود که اعضای بدن همه اهدا میشود مگر اینکه آنها خودشان به طور مشخص قید کنند که نمیخواهند چنین اتفاقی بیفتد. به همین راحتی با تغییر پیشفرض عدهی بیشتری از مردم اعضای بدنشان را اهدا میکنند.
اما اشکال تاکتیک «محرک» چیست؟ منتقدان این کار با اینکه مردم در انتخابشان نقشی نداشته باشند و بدون آگاهی تصمیم بگیرند مخالف هستند. آنطور که «نیک هارکوی» در مقالهای که برای موسسهی هنر و ایده نوشته، توضیح میدهد با به کارگیری تکنیک «محرک» به جای اینکه مشکل توضیح داده شده و سیاست مناسب بر اساس خواست مردم انتخاب شود، خواست و ارادهی مردم بر اساس سیاست مورد نظر دولت تعیین میشود. انتخاب یک مهارت است، یک عادت است. انتخاب میتواند در معماری ذهن و سیستم فکری ما یک تاثیر جزئی ایجاد کند. بنابراین باید با تمرین این مهارت را در خودمان پرورش دهیم.
هر چه باشد، فقط فیسبوک نیست که در بازی گزینش اطلاعات نقش دارد. هر روزه سیستمهای پیشنهادی هوشمند و هوشمندتری در هوش مصنوعی، تکنولوژی گجتهای پوشیدنی و اینترنت اشیا به کار میروند. از گوگل گرفته تا اپل و آمازون، همهی آنها، ما را در معرض اطلاعات شخصی شدهی یکپارچه قرار میدهند. اما مسئلهی اصلی تقابل انسان با ماشین نیست، بلکه تقابل انتخاب آگاهانه با پیروی بی چون چراست.
هر چه اطلاعات در اختیار ما یکپارچهتر بوده و به هم بیشتر مرتبط باشند، ما میتوانیم تصمیمات بهتری بگیریم. این یکی از اصول بنیادی فناوری اطلاعات است.
«لوسیانو فلوریدی»، فیلسوف تکنولوژی و نویسندهی کتاب «انقلاب چهارم» (The Fourth Revolution) از عبارت Pro-ethical Design استفاده میکند تا فرایند تصمیمگیری را به بهترین شکل توصیف کند. برای تصمیمیگیری کاربر، باید اطلاعات به طور واضح و متعادل نمایش داده شود طوری که کاربر مجاب شود کاملا آگاهانه تصمیمش را بررسی کند و مسوولیت آن را بپذیرد. سیستمهای اطلاعاتی باید به جای اینکه تعهد اخلاقی ما را کمتر کنند، آن را در وجود ما زنده کنند. مثلا اهدای عضو نباید یک انتخاب پیشفرض باشد. مردم باید با این سوال مواجه شوند و خودشان آگاهانه تصمیم بگیرند. نباید یک دیدگاه از پیش انتخابشده به ما تحمیل شود، بلکه باید از کاربران خواسته شود که فکر کنند، سوال بپرسند و آگاهیشان را بالا ببرند.
در این زمینه بین راحتی و مراعات، بین آنچه کاربران میخواهند و آنچه که به نفع آنهاست؛ بین شفافیت و برتری تجاری تقابلات اساسی وجود دارد. اگر بین میزان دانش و اطلاعات در دو طرف صفحه نمایش تقارن کمی وجود داشته باشد، یعنی اگر بین اطلاعاتی که سیستم از ما دارد و چیزهایی که ما دربارهی سیستم میدانیم، تعادل وجود نداشته باشد، انتخابهای ما صرفا به مجموعهای از واکنشها به سیخونکها تبدیل میشوند. با این حال، تعادل میان آنچه در جهان واقعی وجود دارد و آنچه که ما میتوانیم بدانیم هر روز به نفع ناآگاهی و جهالت فردی به هم میخورد.
برای این مشکل هیچ راه حل سادهای وجود ندارد و توطئهی بزرگی هم در کار نیست. با این حساب، بدون شک تنها امید ما برای گشت و گذار در حجم عظیمی از دادهها که روی هم انباشت میشوند، این است که انسان و نرمافزار در کنار یکدیگر و به شکلی ماهرانه این دادهها را مدیریت کنند. با این حال، باید به خاطر داشته باشیم که طراحان تکنولوژیهایی که ما از آنها استفاده میکنیم اهداف متفاوتی با ما دارند و اینکه اگر مدیریت اخبار و اطلاعات با موفقیت انجام شود دیگر فرقی نمیکند که متصدی آنها یک الگوریتم است یا یک انسان یا ترکیبی از هر دو.
منبع : دی جی کالا مگ