ہمارے ساتھ رابطہ

کمپیوٹر ٹیکنالوجی

OASI ، پہلا سرچ انجن ہے جس نے وہ الگورتھم تلاش کیے ہیں جو حکومتیں اور کمپنیاں شہریوں پر استعمال کرتی ہیں۔

حصص:

اشاعت

on

ہم آپ کے سائن اپ کو ان طریقوں سے مواد فراہم کرنے کے لیے استعمال کرتے ہیں جن سے آپ نے رضامندی ظاہر کی ہے اور آپ کے بارے میں ہماری سمجھ کو بہتر بنایا ہے۔ آپ کسی بھی وقت سبسکرائب کر سکتے ہیں۔

  • ایٹیکاس فاؤنڈیشن کے ذریعہ تخلیق کردہ ، سماجی اثرات کے ساتھ الگورتھم کی آبزرویٹری ، OASI ، عوامی انتظامیہ اور دنیا بھر کی کمپنیوں کے استعمال کردہ درجنوں الگورتھم سے معلومات اکٹھا کرتی ہے تاکہ ان کے سماجی اثرات کے بارے میں مزید جان سکیں۔
  • مقصد یہ ہے کہ حکومتوں اور کمپنی کے الگورتھم دونوں کے بارے میں معلومات تک عوام تک رسائی دی جائے ، اور یہ جاننا ہے کہ کون ان کو استعمال کرتا ہے ، کون انہیں تیار کرتا ہے ، وہ کونسی دھمکیوں کی نمائندگی کرتے ہیں اور اگر ان کا آڈٹ کیا گیا ہے تو دوسری خصوصیات کے ساتھ۔
  • الگورتھم تعصب اور امتیاز عام طور پر عمر ، جنس ، نسل یا معذوری کی بنیاد پر ہوتا ہے ، دوسری اقدار کے درمیان ، لیکن شفافیت کی عام کمی کی وجہ سے ، متاثرہ گروہوں پر اس کے تمام نتائج جاننا ابھی تک ممکن نہیں ہے۔

ایٹکاس فاؤنڈیشن ، ایک غیر منافع بخش تنظیم جو الگورتھم اور مصنوعی ذہانت (AI) کے نظام کے ذمہ دارانہ استعمال کو فروغ دیتی ہے ، نے سوشل امپیکٹ (OASI) کے ساتھ الگورتھم کی آبزرویٹری بنائی ہے۔ یہ آبزرویٹری ان ٹولز کے بارے میں مزید جاننے کے لیے سرچ انجن متعارف کراتی ہے جو دنیا بھر کے شہریوں ، صارفین اور صارفین پر اہم خودکار فیصلے کرتے ہیں۔

فی الحال ، دونوں کمپنیاں اور پبلک ایڈمنسٹریشن الگورتھم کی بدولت خودکار فیصلے کرتے ہیں۔ البتہ، اس کی ترقی اور کمیشن بیرونی کوالٹی کنٹرولز کی پیروی نہیں کرتا ، نہ ہی یہ اتنا شفاف ہے جتنا ہونا چاہیے ، جس سے آبادی غیر محفوظ ہو جاتی ہے۔ اس سرچ انجن کے ساتھ ، کوئی بھی ان الگورتھم کے بارے میں مزید معلومات حاصل کر سکتا ہے: انہیں کس نے تیار کیا ہے ، کون ان کو استعمال کرتا ہے ، ان کی درخواست کا دائرہ کار ، چاہے ان کا آڈٹ کیا گیا ہو ، ان کے مقاصد یا ان کے سماجی اثرات اور ان کی نمائندگی کرنے والے خطرات۔

فی الحال، OASI 57 الگورتھم جمع کرتا ہے ، لیکن اگلے مہینوں میں 100 تک پہنچنے کی توقع رکھتا ہے۔ ان میں سے ، 24 کو پہلے ہی امریکہ میں حکومت اور بڑی ٹیک کمپنیوں نے لاگو کیا ہے۔ مثال کے طور پر ، ShotSpotter ، ایک الگورتھم ٹول جو آکلینڈ پولیس ڈیپارٹمنٹ کی طرف سے آواز کی نگرانی کرنے والے مائیکروفون کے ذریعے بندوق کے تشدد سے لڑنے اور کم کرنے کے لیے تعینات کیا گیا ہے ، اور ایک الگورتھم جو بچوں کے ممکنہ زیادتی اور نظراندازی کی پیش گوئی کرتا ہے جو کہ الیگینی کاؤنٹی ، پنسلوانیا استعمال کرتا ہے۔ ایک کارپوریٹ کی طرف سے ایک اور مثال ہے ایمیزون کا چہرہ پہچاننے کا نظام ، جس کا ایم آئی ٹی میڈیا لیب نے 2019 کے اوائل میں آڈٹ کیا تھا ، اور اگر کسی خاتون کی جنس کی شناخت کرتے ہوئے وہ عورت یا گہری جلد کی تھی تو اس سے کافی خراب کارکردگی کا مظاہرہ کیا گیا۔

سب سے عام امتیاز عمر ، جنس ، نسل یا معذوری کی بنیاد پر ہے ، غیر ارادی طور پر ان ڈویلپرز کے ذریعہ تیار کیا گیا جن کے پاس اس ٹیکنالوجی کے اثرات کو سمجھنے کے لیے سماجی اقتصادی مہارتوں کی کمی ہے۔ اس لحاظ سے ، یہ انجینئر الگورتھم کو صرف تکنیکی مہارتوں پر مبنی ڈیزائن کرتے ہیں ، اور چونکہ کوئی بیرونی کنٹرول نہیں ہے اور یہ توقع کے مطابق کام کرتا دکھائی دیتا ہے ، الگورتھم ناقص ڈیٹا سے سیکھتے رہتے ہیں۔

ان میں سے کچھ الگورتھم کے کام کے بارے میں شفافیت کی کمی کو دیکھتے ہوئے ، ایٹیکاس فاؤنڈیشن ، OASI کے آغاز کے علاوہ ، بیرونی آڈٹ کا ایک پروجیکٹ تیار کر رہی ہے۔ پہلا ویو گان ہے ، جو الگورتھم ہسپانوی وزارت داخلہ نے ان خواتین کو خطرہ تفویض کرنے کے لیے استعمال کیا ہے جو گھریلو تشدد کے واقعات میں مبتلا ہونے کے بعد تحفظ چاہتے ہیں۔ Eticas ریورس انجینئرنگ اور انتظامی اعداد و شمار ، انٹرویوز ، رپورٹس یا ڈیزائن سکرپٹ کے ذریعے بیرونی آڈٹ کرے گا تاکہ بڑے پیمانے پر نتائج اکٹھے کیے جا سکیں۔ یہ سب ان خواتین کے تحفظ میں بہتری کے مواقع کا پتہ لگانے کے مقصد سے ہے۔

ایٹکاس فاؤنڈیشن کے بانی جیما گالڈن نے اعلان کیا کہ "ٹیکنالوجی موجودہ قواعد و ضوابط اور بنیادی حقوق کا احترام کرنے کے لیے الگورتھمک کنٹرول اور آڈٹ کے طریقوں کے وجود کے باوجود . او اے ایس آئی کے علاوہ ، کئی سالوں کے بعد جس میں ہم نے الفا ٹیلی فونیکا ، اقوام متحدہ ، کوا ہیلتھ یا انٹر امریکن ڈویلپمنٹ بینک جیسی کمپنیوں کے لیے ایک درجن سے زیادہ آڈٹ تیار کیے ہیں ، ہم نے الگورتھمک آڈٹ کے لیے ایک گائیڈ بھی شائع کی ہے کہ کوئی بھی ان کو انجام دے سکتا ہے۔ مقصد ہمیشہ شعور بیدار کرنا ، شفافیت فراہم کرنا اور ٹیکنالوجی پر اعتماد بحال کرنا ہے ، جو کہ خود کو نقصان دہ نہیں ہونا چاہیے۔

اس لحاظ سے ، الگورتھم جو کہ مشین لرننگ ٹیکنیک کے ساتھ تربیت یافتہ ہیں تاریخی اعداد و شمار کی ایک بڑی مقدار کا استعمال کرتے ہوئے انہیں ماضی کے فیصلوں کی بنیاد پر منتخب کرنے کے لیے "سکھاتے" ہیں۔ عام طور پر یہ اعداد و شمار سماجی و اقتصادی اور ثقافتی حقیقت کے نمائندے نہیں ہوتے جن پر ان کا اطلاق ہوتا ہے ، لیکن بہت سے مواقع پر یہ ایک غیر منصفانہ صورت حال کی عکاسی کرتے ہیں جس کا مقصد قائم نہیں رہنا ہے۔ اس طرح ، الگورتھم تکنیکی طور پر اپنی تربیت کے مطابق "درست" فیصلے کرے گا ، حالانکہ حقیقت یہ ہے کہ اس کی سفارشات یا پیش گوئیاں متعصبانہ یا امتیازی ہیں۔

اشتہار

Eticas فاؤنڈیشن کے بارے میں

ایٹکاس فاؤنڈیشن تکنیکی وضاحتوں میں ان اصولوں کا ترجمہ کرنے کا کام کرتی ہے جو معاشرے کی رہنمائی کرتے ہیں ، جیسے مساوی مواقع ، شفافیت اور عدم امتیاز جو ان ٹیکنالوجیز میں ہیں جو ہماری زندگی کے بارے میں خودکار فیصلے کرتے ہیں۔ یہ بدلتی ہوئی سماجی اقدار ، تازہ ترین پیش رفت کے تکنیکی امکانات اور قانونی فریم ورک کے درمیان توازن تلاش کرتی ہے۔ اس مقصد کے لیے ، یہ الگورتھم کا آڈٹ کرتا ہے ، اس بات کی تصدیق کرتا ہے کہ قانونی ضمانتیں ڈیجیٹل دنیا پر لاگو ہوتی ہیں ، خاص طور پر مصنوعی ذہانت پر ، اور آگاہی بڑھانے اور ذمہ دار ، معیاری ٹیکنالوجی کی ضرورت کو پھیلانے کے لیے شدید کام کرتی ہیں۔

اس مضمون کا اشتراک کریں:

EU رپورٹر مختلف قسم کے بیرونی ذرائع سے مضامین شائع کرتا ہے جو وسیع نقطہ نظر کا اظہار کرتے ہیں۔ ان مضامین میں لی گئی پوزیشنز ضروری نہیں کہ وہ EU Reporter کی ہوں۔

رجحان سازی