موضوعات ‌مرتبط: فناوری علم و فناوری

a/154946 :کد

هشدار رگولاتور انگلیس به گوگل:

با یک کلیک می‌توان به راهنمای خودکشی دسترسی داشت

  جمعه ۱۳ بهمن ۱۴۰۲ — ۱۲:۲۴
تعداد بازدید : ۱۵۸   
 تحلیل ایران -با یک کلیک می‌توان به راهنمای خودکشی دسترسی داشت

آفکام، رگولاتور انگلیس با انجام تحقیقاتی به این نتیجه رسیده است که موتورهای جستجو محتوای مضر با مضمون خودآزاری و خودکشی را به راحتی در دسترس کاربران، به ویژه کودکان و نوجوانان قرار می‌دهند.

به گزارش تحلیل ایران به نقل از تک‌کرانچ، آفکام، رگولاتور بریتانیا، با استناد به گزارشی از سوی یک مؤسسه تحقیقاتی، هشدار داده است که موتورهای جستجو مانند گوگل، یاهو، داک‌داک‌گو و بینگ به دروازه‌ای برای محتوای آسیب‌زندده و خودکشی نبدیل شده است. آفکام گفته است: با یک کلیک در این موتورها می‌توان به راهنمای آسیب به خود، خودکشی و سایر محتوای مضر دسترسی داشت.

براساس تحقیق آقکام، از هر پنج نتیجه جستجوی عباراتی درباره خودآزاری، یک مورد چنین رفتارهای مضری را تحسین یا ترغیب می‌کند. همچنین این چنین محتواهایی در بخش تصاویر موتورهای جستجو نیز یافت می‌شود. آفکام هشدار می‌دهد که محتواهایی که به تمجید یا ترغیب خودآزاری و خودکشی می‌پردازند، به‌طور گسترده از طریق موتورهای جستجو به ویژه برای کودکان زیر سن قانونی در دسترس هستند.

موتورهای جستجو مانند گوگل بیش از 80 میلیارد بازدید در ماه را در مقایسه با برنامه های اجتماعی مانند تیک‌تاک با کاربران فعال ماهانه حدود 1.7 میلیارد نفر دارند. آمودنا لازا، مدیر توسعه سیاست ایمنی انلاین آفکام گفته است: «موتورهای جستجو اغلب نقطه شروع انلاین مردم هستند و ما نگران هستیم که آنها می‌توانند به عنوان دروازه‌های دسترسی به محتوای خودآزاری عمل کنند. خدمات جستجو باید عاری از هرگونه خطرات بالقوه به ویژه برای کودکان باشند.

محققان گزارش آفکام حدود 37 هزار نتیجه را در پنج موتور جستجو مطرح تجزیه‌وتحلیل کردند. در نتیجه این تحقیقات مشاهده شد که 22 درصد از نتایج جستجو، مستقیماً به محتوای مضر، همراه با دستورالعمل‌هایی برای اشکال مختلف خودآزاری متصل می‌شدند و بدتر آنکه 19 درصد این مطالب در صفحات ابتدایی قرار داشتند. همچنین در بخش جستجوی تصویر، 50 درصد از نتایج محتواهای نامناسب را نشان دادند.

این گزارش احتمال می‌دهد که یکی از دلایلی که ممکن است برخی از این نتایج مضر توسط موتورهای جستجو بررسی نشود، این است که الگوریتم‌ آن‌ها ممکن است تصاویر خودآزاری را با عکس‌های پزشکی و سایر رسانه‌های قانونی اشتباه بگیرند.

                               



  ارسال نظر جدید:
      نام :        (در صورت تمایل)

      ایمیل:      (در صورت تمایل) - (نشان داده نمی شود)

     نظر :