قیافه استادان رشتههای گوناگون از نگاه هوش مصنوعی/ ماشین هم از کلیشهها در امان نیست/ عکس
تاریخ انتشار: ۲۲ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۷۳۳۴۰۵
انتشار یک ویدیوی ۴۰ ثانیهای باعنوان «چهره استادان بر اساس رشتههایشان» در ردیت، بحث جالبی را به راه انداخته است. به عقیده بعضیها و بر اساس تجاربشان این تصاویر به شدت به واقعیت نزدیک هستند. برخی دیگر که نگاه متفاوتتری دارند میگویند بیشتر این تصاویر فقط مردان جاافتاده و سفیدپوست را در لباس اساتید نشان میدهد که در مورد اکثر مؤسسات دانشگاهی مدرن، صادق نیست.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
مولدهای تصویر هوش مصنوعی میتوانند در مدلهای خود سوگیری داشته باشند، زیرا آنها از دادههایی که بر رویشان آموزش دیدهاند، یاد میگیرند. دادهها نیز اغلب سوگیریهای موجود در دنیای واقعی را در دل خود جا دادهاند. چنین سوگیریهایی بسته به مدل خاص و دادههای مورد استفاده برای آموزش، میتوانند به روشهای مختلفی ظاهر شوند.
به عنوان مثال، اگر یک مولد تصویر هوش مصنوعی بر روی مجموعه دادهای از تصاویر آموزش دیده باشد که گروههای خاصی از افراد را بهطور نامتناسب نشان میدهد، مانند افراد با پوست روشنتر، تصاویر تولیدشده نیز ممکن است این سوگیری را با تولید تصاویر کمتر از افراد با پوست تیره تر نشان دهند. اگر دادههای آموزشی حاوی کلیشهها یا سایر سوگیریها باشد، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که آن سوگیریها را در تصاویر تولیدشده خود بازتولید کند.
افزونبراین اگر خود دادههای آموزشی هم بیطرف باشند، مدل همچنان ممکن است بر اساس نحوه برچسبگذاری یا حاشیهنویسی دادهها، سوگیریها را یاد بگیرد. به عنوان مثال، اگر مجموعه داده، اشیا یا افراد خاصی را به گونهای برچسبگذاری کند که کلیشهها یا فرضیات را تقویت کند، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که این سوگیریها را در خروجی خود تداوم ببخشد.
به نظر محققان از آنجایی که سیستمهای تبدیل متن به تصویر با قابلیت یادگیری ماشینی رو به افزایش هستند و به عنوان خدمات تجاری، پذیرش رو به رشدی را تجربه میکنند، اولین گام ضروری برای کاهش خطر نتایج تبعیضآمیز آنها، مشخص کردن سوگیریهای اجتماعی است که از خود نشان میدهند.
محققان و توسعهدهندگان باید دادههای آموزشی خود را به دقت تنظیم کنند و از تکنیکهایی مانند دادهافزایی، مکانیزم طبقهبندی منصفانه و آموزش خصمانه استفاده کنند تا اطمینان حاصل شود که مدلهای حاصل تا حد ممکن عاری از سوگیری هستند.
5858
کد خبر 1765186منبع: خبرآنلاین
کلیدواژه: هوش مصنوعی فناوری تبعیض نژادی تصویر هوش مصنوعی سوگیری ها داده ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.khabaronline.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرآنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۷۳۳۴۰۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
اعلام آمادگی دانشگاه مطرح ایرانی برای آموزش زبان فارسی به دانشجویان اخراجی آمریکا
به گزارش همشهری آنلاین به نقل از فارس، مدتی است دانشجویان دانشگاه های آمریکایی و اروپایی در حمایت از مردم مظلوم فلسطین به پا خواسته اند و اعتراضات گسترده شان به گوش جهانیان رسیده است.
در این رابطه عبداله معتمدی رئیس دانشگاه علامه طباطبائی گفت: این اتفاق، اتفاق بی سابقه و میمونی است که بیداری واقعی در فضای دانشگاهی را نشان می دهد.
وی افزود: با توجه به اتفاقاتی که افتاده دانشگاه علامه طباطبائی هم آمادگی دارد سوابق تحصیلی استادان و دانشجویان علوم انسانی دانشگاهیان آمریکایی که اخراج شده را برای پذیرش بررسی کند.
رئیس دانشگاه علامه طباطبائی اضافه کرد: ما حتی آمادگی داریم از این افراد برای حضور در مجامع علمی دانشگاه دعوت کنیم تا از ارزیابی و تجربیات شان از اتفاقاتی که در کشورهای اروپایی و آمریکایی رخ می دهد استفاده کنیم.
معتمدی در ادامه گفت: اگر رشته تحصیلی این افراد با رشته تحصیلی دایر در دانشگاه علامه طباطبائی مطابق باشد آمادگی داریم به این دانشجویان بورس تحصیلی ارائه کنیم و حتی آمادگی آموزش زبان فارسی از طریق وبینار و فضای مجازی در دوره های معینی به آنها داریم تا با زیان فارسی آشنا شوند.