تصاویر فیلم
پیشنهادهای مشابه
نمایش همهنقد و بررسی
معتبر: این تحلیلها بهترین و دقیقترین نتایج رو دارن! ما دادههای کافی و باکیفیت داشتیم و هوش مصنوعی ما نتایج مناسبی رو برای این دسته از فیلمها بهمون داده.
خشونت: خیلی کم
ترس: خیلی کم
ناهنجاری اجتماعی: زیاد
الگوی مثبت: زیاد
پیام مثبت: زیاد
خلاصه فیلم
ویرایشدر مستند CODED BIAS، شالینی کانتایا، کارگردان، با متخصصان پیشرو در زمینه فناوری (دانشمندان کامپیوتر، دانشمندان داده، متخصصان امنیت سایبری و بازاریابی) مصاحبه میکند تا بررسی کند که چگونه فناوری، بهویژه هوش مصنوعی، یادگیری ماشینی و الگوریتمها، مستعد سوگیریهای اجتماعی-اقتصادی، جنسیتی و نژادی هستند. برجستهترین فرد در میان مصاحبهشوندگان، جوی بوولاموینی، دانشمند کامپیوتر و فعال دیجیتال مستقر در MIT است که لیگ عدالت الگوریتمی را تأسیس کرده است. او در مورد اینکه چگونه سوگیری دیجیتال بر انواع فناوریها تأثیر میگذارد، از جمله اینکه نرمافزارهای تشخیص چهره چگونه ممکن است در تشخیص دقیق چهرههای با پوست تیرهتر ناکام بمانند (یا اشتباهاً چهرهها را با پایگاههای داده مجرمان مطابقت دهند) تا نحوهای که برخی اسکنرهای دیجیتال متقاضیان شغل، وام، کارت اعتباری و غیره را رد میکنند، صحبت میکند. دانشمندان داده و متخصصان دیگر در مورد اینکه چگونه استفاده از رسانههای اجتماعی و ذخیره حجم زیادی از دادههای کاربر منجر به ایجاد آگهیهای هدفمند میشود که فقرا را در معرض روشهای سوءاستفاده قرار میدهد، در حالی که ثروتمندان بمباران میشوند با آخرین کالاهای لوکس، اظهار نظر میکنند.
درباره این موارد گفتگو کنید
- خانوادهها میتوانند در مورد آموختههای خود از تماشای مستند «بیطرفی کدگذاریشده» صحبت کنند. آیا چیزی در این مستند شما را شگفتزده کرد؟ چرا یا چرا نه؟ چرا مهم است که بدانیم هوش مصنوعی و الگوریتمها میتوانند تبعیضآمیز باشند؟ چگونه این موضوع میتواند به مردم آسیب برساند؟
- فیلم در مورد چه نکاتی صحبت میکند که در بحثهای مربوط به شهروندی دیجیتال، حریم خصوصی و تاثیر عظیم صنعت فناوری بر زندگی روزمره ما مرتبط هستند؟
- چه چیزی باعث میشود که جوی بوولاموینی الگوی مناسبی باشد؟ او چگونه مهارتهای ارتباطی، دلسوزی و صداقت را نشان میدهد؟ چرا این ویژگیها نقاط قوت مهمی هستند؟
- آیا تماشای این فیلم علاقه شما را به هوش مصنوعی، برنامهنویسی یا علوم کامپیوتر برانگیخت؟
- فیلمهای مستند علمی و فناوری مورد علاقهی شما کداماند؟ آیا داستانهایی مرتبط با فعالیتهای اجتماعی را هم دنبال میکنید؟
آنچه والدین باید بدانند
ویرایشوالدین باید بدانند که مستند «بیطرفی کدگذاریشده» دربارهٔ سوگیریهای جنسیتی، نژادی و طبقاتی هوش مصنوعی، یادگیری ماشینی، الگوریتمها و فناوریهای دیگر است و اینکه چگونه این سوگیریها بر زندگی روزمرهٔ مردم تأثیر میگذارند. این فیلم نشان میدهد که چگونه سوگیریهای انسانی منجر به سوگیری در کدهای کامپیوتری شده است، خواه نرمافزاری برای تشخیص چهره باشد که چهرههای غیرسفیدپوست را بهدرستی تشخیص نمیدهد، یا اسکن خودکار رزومهها و درخواستهای کارت اعتباری که زنان و افراد رنگینپوست را حذف یا رد میکند. از طریق مصاحبه با دانشمندان کامپیوتر، محققان، گروههای ناظر و غیره - اکثراً زنان و چند نفر از آنها افراد رنگینپوست - کارگردان شالینی کانتایا بررسی میکند که چگونه فناوری از تعصبات و رفتارهای تبعیضآمیز دور نیست. بیشتر محتوای فیلم برای نوجوانان مناسب است، اما چند مورد از الفاظ زشت و تند وجود دارد، از جمله هوش مصنوعی که از کلمهٔ «لعنتی» و توهینهای نژادپرستانه و تبعیضآمیز مانند «یهودیان را دوست ندارم» استفاده میکند. برای آگاهی از فیلمهای مشابه بیشتر، میتوانید برای دریافت ایمیلهای هفتگی «شب فیلم خانوادگی» ثبتنام کنید.
این فیلم چه نکات مثبتی دارد
این فیلم، اثری فکربرانگیز است در مورد اینکه چگونه انواع مختلف فناوریهای نظارت بیومتریک، هوش مصنوعی و علم دادهها میتوانند در هر دو مرحله پیادهسازی و استفاده، جانبدارانه عمل کنند. همه باید این فیلم را تماشا کنند تا درک کنند که چگونه بینایی رایانه، تصمیمگیری خودکار و بازاریابی هدفمند میتوانند پیامدهای واقعی و ماندگاری برای مردم داشته باشند. شواهد تبعیض فراوان است: بینندگان در مورد یک ابزار استخدام هوش مصنوعی میشنوند که همه متقاضیان زن را رد کرده است، یک هوش مصنوعی درخواست کارت اعتباری که به زنان محدودیت اعتباری کمتری میدهد، و یک الگوریتم بیمه که اعضای سفیدپوست را نسبت به افراد رنگینپوست در اولویت قرار میدهد. در واقع، ایده بیطرفی ماشین، یک افسانه است، همانطور که کارشناسان میگویند. بولاموینی ادعا میکند که فناوری بدون نظارت، مانند غرب وحشی است، بنابراین ما به قوانینی نیاز داریم تا اطمینان حاصل کنیم که فناوری تبعیضآمیز نیست. او میگوید: "افرادی که به حاشیه رانده شدهاند، در صورت عدم بررسی روشهایی برای اطمینان از عدم ترویج جانبداری توسط فناوری که ایجاد میکنیم، بیشتر به حاشیه رانده خواهند شد."در بخشهای دیگری از فیلم، یک فعال بریتانیایی که نگران استفاده از دوربینها در کشور خود به شیوه برادر بزرگ است، توضیح میدهد که هر کاری که مردم با فناوری انجام میدهند به معنای دیده شدن، ردیابی شدن و تحت نظارت بودن است. کانتایا با ارائه فهرستی چشمگیر از سوژههای مصاحبه (که تمرکز او بر رهبران زن در این زمینهها تصادفی نیست)، استدلال خود را برای شفافیت، مقرراتگذاری و فعالیتهای اجتماعی مطرح میکند. این افراد به روشنی نشان میدهند که ما به عنوان کاربران رسانههای اجتماعی، به طور داوطلبانه اطلاعات زیادی در مورد خودمان ارائه میدهیم که باعث میشود دانشمندان داده و الگوریتمها به راحتی بتوانند علایق، رفتار و حتی عادات ما را پیشبینی کنند. در حالی که بازاریابی لوازم آرایشی و پوشاک ممکن است بیضرر به نظر برسد، بازاریابی ایدهها یا نامزدهای سیاسی کاملاً متفاوت است. این فیلم، به همراه مستند معضل اجتماعی، باید به عنوان نمایشی اجباری برای خانوادهها در نظر گرفته شود تا در مورد شهروندی دیجیتال، حریم خصوصی و تأثیر عظیم صنعت فناوری بر زندگی روزمره ما بحث و گفتگو کنند.
دیدگاههای کاربران
دیدگاهی ثبت نشده است.