ہمارے ساتھ رابطہ

مصنوعی ذہانت

آرٹیفیشل انٹیلی جنس ایکٹ: کونسل اور پارلیمنٹ نے دنیا میں اے آئی کے پہلے اصولوں پر معاہدہ کیا۔

حصص:

اشاعت

on

ہم آپ کے سائن اپ کو ان طریقوں سے مواد فراہم کرنے کے لیے استعمال کرتے ہیں جن سے آپ نے رضامندی ظاہر کی ہے اور آپ کے بارے میں ہماری سمجھ کو بہتر بنایا ہے۔ آپ کسی بھی وقت سبسکرائب کر سکتے ہیں۔

تین روزہ 'میراتھن' بات چیت کے بعد، کونسل کی صدارت اور یورپی پارلیمنٹ کے مذاکرات کار مصنوعی ذہانت (AI)، نام نہاد مصنوعی ذہانت کے ایکٹ کے ہم آہنگ قوانین کی تجویز پر ایک عارضی معاہدے پر پہنچ گئے ہیں۔ مسودہ ضابطے کا مقصد اس بات کو یقینی بنانا ہے کہ یورپی مارکیٹ میں رکھے گئے اور EU میں استعمال ہونے والے AI سسٹمز محفوظ ہیں اور بنیادی حقوق اور EU اقدار کا احترام کرتے ہیں۔ اس تاریخی تجویز کا مقصد یورپ میں AI پر سرمایہ کاری اور اختراع کو بھی فروغ دینا ہے۔

کارمی آرٹیگاس، ڈیجیٹلائزیشن اور مصنوعی ذہانت کے لیے ہسپانوی سیکریٹری آف اسٹیٹ

یہ ایک تاریخی کامیابی ہے، اور مستقبل کی طرف ایک بہت بڑا سنگ میل! آج کا معاہدہ ہمارے معاشروں اور معیشتوں کے مستقبل کے لیے ایک اہم شعبے پر تیزی سے ترقی کرتے ہوئے تکنیکی ماحول میں عالمی چیلنج کو مؤثر طریقے سے حل کرتا ہے۔ اور اس کوشش میں، ہم ایک انتہائی نازک توازن برقرار رکھنے میں کامیاب رہے: اپنے شہریوں کے بنیادی حقوق کا مکمل احترام کرتے ہوئے یورپ بھر میں اختراعات اور مصنوعی ذہانت کو فروغ دینا۔

اے آئی ایکٹ ایک ہے۔ فلیگ شپ نجی اور عوامی دونوں اداکاروں کے ذریعہ EU کی واحد مارکیٹ میں محفوظ اور قابل اعتماد AI کی ترقی اور اس کو فروغ دینے کی صلاحیت کے ساتھ قانون سازی کا اقدام۔ بنیادی خیال یہ ہے کہ AI کو بعد میں معاشرے کو نقصان پہنچانے کی مؤخر الذکر کی صلاحیت کی بنیاد پر ریگولیٹ کیا جائے۔ 'خطرے پر مبنی' نقطہ نظر: خطرہ جتنا زیادہ ہوگا، قوانین اتنے ہی سخت ہوں گے۔. دنیا میں اپنی نوعیت کی پہلی قانون سازی کی تجویز کے طور پر، یہ ایک سیٹ کر سکتی ہے۔ عالمی معیار دوسرے دائرہ اختیار میں AI ریگولیشن کے لیے، جیسا کہ GDPR نے کیا ہے، اس طرح عالمی سطح پر ٹیک ریگولیشن کے لیے یورپی نقطہ نظر کو فروغ دے رہا ہے۔

عارضی معاہدے کے اہم عناصر

کمیشن کی ابتدائی تجویز کے مقابلے میں، عارضی معاہدے کے اہم نئے عناصر کا خلاصہ اس طرح کیا جا سکتا ہے:

  • پر قوانین اعلیٰ اثر والے عمومی مقصد والے AI ماڈل جو مستقبل میں نظامی خطرہ کے ساتھ ساتھ زیادہ خطرے کا سبب بن سکتا ہے۔ اے آئی سسٹمز
  • کا ایک نظر ثانی شدہ نظام گورننس EU کی سطح پر کچھ نفاذی طاقتوں کے ساتھ
  • کی فہرست کی توسیع ممانعت لیکن استعمال کرنے کے امکان کے ساتھ ریموٹ بائیو میٹرک شناخت عوامی مقامات پر قانون نافذ کرنے والے حکام کی طرف سے، تحفظات سے مشروط
  • اعلی خطرے والے AI سسٹمز کے تعینات کرنے والوں کے لیے ذمہ داری کے ذریعے حقوق کا بہتر تحفظ بنیادی حقوق کے اثرات کی تشخیص AI سسٹم کو استعمال میں لانے سے پہلے۔

مزید ٹھوس شرائط میں، عارضی معاہدہ درج ذیل پہلوؤں کا احاطہ کرتا ہے:

تعریفیں اور دائرہ کار

اس بات کو یقینی بنانا کہ تعریف ایک AI نظام AI کو آسان سافٹ ویئر سسٹمز سے ممتاز کرنے کے لیے کافی واضح معیار فراہم کرتا ہے، سمجھوتہ معاہدہ OECD کے تجویز کردہ نقطہ نظر کے ساتھ تعریف کو ہم آہنگ کرتا ہے۔

عارضی معاہدہ یہ بھی واضح کرتا ہے کہ یہ ضابطہ یورپی یونین کے قانون کے دائرہ کار سے باہر کے علاقوں پر لاگو نہیں ہوتا ہے اور اسے کسی بھی صورت میں رکن ممالک کی اہلیت کو متاثر نہیں کرنا چاہیے۔ قومی سلامتی یا کسی بھی ادارے کو اس علاقے میں کام سونپا گیا ہے۔ مزید برآں، AI ایکٹ کا اطلاق ان سسٹمز پر نہیں ہوگا جن کے لیے خصوصی طور پر استعمال کیا جاتا ہے۔ فوجی or دفاع مقاصد. اسی طرح، معاہدہ فراہم کرتا ہے کہ ضابطے کا اطلاق ان AI سسٹمز پر نہیں ہوگا جو واحد مقصد کے لیے استعمال ہوتے ہیں۔ تحقیق اور بدعت، یا غیر پیشہ ورانہ وجوہات کی بنا پر AI استعمال کرنے والے لوگوں کے لیے۔

اشتہار

AI سسٹمز کی درجہ بندی بطور اعلی خطرہ اور ممنوعہ AI طریقوں

سمجھوتہ معاہدہ ایک کے لیے فراہم کرتا ہے۔ تحفظ کی افقی پرت، ایک اعلی خطرے کی درجہ بندی سمیت، اس بات کو یقینی بنانے کے لیے کہ ایسے AI سسٹمز جن سے بنیادی حقوق کی سنگین خلاف ورزیوں یا دیگر اہم خطرات کا امکان نہ ہو پکڑے نہ جائیں۔ AI سسٹمز صرف پیش کر رہے ہیں۔ محدود خطرہ بہت روشنی کے تابع ہو جائے گا شفافیت کی ذمہ داریاںمثال کے طور پر یہ ظاہر کرنا کہ مواد AI سے تیار کیا گیا تھا تاکہ صارفین مزید استعمال کے بارے میں باخبر فیصلے کر سکیں۔

کی ایک وسیع رینج اعلی خطرہ AI سسٹمز کو اختیار دیا جائے گا، لیکن EU مارکیٹ تک رسائی حاصل کرنے کی ضروریات اور ذمہ داریوں کے ایک سیٹ سے مشروط۔ ان ضروریات کو شریک قانون سازوں نے اس طرح واضح اور ایڈجسٹ کیا ہے کہ وہ زیادہ ہیں۔ تکنیکی طور پر ممکن ہے اور کم بوجھل اسٹیک ہولڈرز کی تعمیل کرنے کے لیے، مثال کے طور پر ڈیٹا کے معیار کے حوالے سے، یا اس تکنیکی دستاویزات کے سلسلے میں جو SMEs کے ذریعے یہ ظاہر کرنے کے لیے تیار کیے جائیں کہ ان کے اعلی رسک والے AI سسٹم ضروریات کی تعمیل کرتے ہیں۔

چونکہ AI سسٹمز پیچیدہ ویلیو چینز کے ذریعے تیار اور تقسیم کیے جاتے ہیں، اس لیے سمجھوتہ معاہدے میں تبدیلیاں شامل ہیں ذمہ داریوں کی تقسیم اور مختلف اداکاروں کے کردار ان زنجیروں میں، خاص طور پر فراہم کنندگان اور AI سسٹم کے صارفین۔ یہ AI ایکٹ کے تحت ذمہ داریوں اور دیگر قانون سازی کے تحت پہلے سے موجود ذمہ داریوں کے درمیان تعلق کو بھی واضح کرتا ہے، جیسے کہ متعلقہ EU ڈیٹا پروٹیکشن یا شعبہ جاتی قانون سازی۔

AI کے کچھ استعمال کے لیے خطرہ سمجھا جاتا ہے۔ ناقابل قبول اور، اس لیے، ان سسٹمز پر یورپی یونین سے پابندی لگا دی جائے گی۔ عارضی معاہدہ پابندی لگاتا ہے، مثال کے طور پر، علمی رویے کی ہیرا پھیری، غیر ھدف شدہ سکریپنگ انٹرنیٹ یا سی سی ٹی وی فوٹیج سے چہرے کی تصاویر، جذبات کی پہچان کام کی جگہ اور تعلیمی اداروں میں، سماجی اسکورنگ, بائیو میٹرک درجہ بندی حساس اعداد و شمار کا اندازہ لگانا، جیسے جنسی رجحان یا مذہبی عقائد، اور کچھ معاملات پیش گوئی پولیس افراد کے لیے

قانون نافذ کرنے والے مستثنیات

کی خصوصیات پر غور کرتے ہوئے قانون نافذ کرنے والے حکام اور ان کے اہم کام میں AI استعمال کرنے کی صلاحیت کو برقرار رکھنے کی ضرورت، قانون نافذ کرنے والے مقاصد کے لیے AI سسٹم کے استعمال سے متعلق کمیشن کی تجویز میں کئی تبدیلیوں پر اتفاق کیا گیا۔ مناسب سے مشروط تحفظات، ان تبدیلیوں کا مقصد ان کی سرگرمیوں کے سلسلے میں حساس آپریشنل ڈیٹا کی رازداری کا احترام کرنے کی ضرورت کی عکاسی کرنا ہے۔ مثال کے طور پر، ایک ہنگامی طریقہ کار متعارف کرایا گیا تھا جس سے قانون نافذ کرنے والے اداروں کو ایک اعلی خطرے والے AI ٹول کو تعینات کرنے کی اجازت دی گئی تھی جس نے مطابقت کی تشخیص فوری طور پر عمل. تاہم اس بات کو یقینی بنانے کے لیے ایک مخصوص طریقہ کار بھی متعارف کرایا گیا ہے۔ بنیادی حقوق AI سسٹمز کے کسی بھی ممکنہ غلط استعمال سے کافی حد تک محفوظ رہے گا۔

اس کے علاوہ، اصل وقت کے استعمال کے حوالے سے ریموٹ بائیو میٹرک شناخت عوامی طور پر قابل رسائی جگہوں پر نظام، عارضی معاہدہ ان مقاصد کو واضح کرتا ہے جہاں قانون نافذ کرنے والے مقاصد کے لیے اس طرح کا استعمال سختی سے ضروری ہے اور جس کے لیے قانون نافذ کرنے والے حکام کو غیر معمولی طور پر ایسے نظاموں کو استعمال کرنے کی اجازت ہونی چاہیے۔ سمجھوتہ معاہدہ فراہم کرتا ہے۔ اضافی تحفظات اور ان مستثنیات کو بعض جرائم کے متاثرین کے معاملات، حقیقی، موجودہ، یا ممکنہ خطرات کی روک تھام، جیسے دہشت گردانہ حملوں، اور انتہائی سنگین جرائم کے مشتبہ لوگوں کی تلاش تک محدود کرتا ہے۔

عام مقصد کے AI سسٹمز اور فاؤنڈیشن ماڈل

ایسے حالات کو مدنظر رکھنے کے لیے نئی دفعات شامل کی گئی ہیں جہاں AI سسٹم کو بہت سے مختلف مقاصد کے لیے استعمال کیا جا سکتا ہے (عام مقصد AI)، اور جہاں عام مقصد کی AI ٹیکنالوجی کو بعد میں ایک اور ہائی رسک سسٹم میں ضم کیا جاتا ہے۔ عارضی معاہدہ عمومی مقصدی AI (GPAI) سسٹمز کے مخصوص معاملات کو بھی حل کرتا ہے۔

کے لیے مخصوص قوانین پر بھی اتفاق کیا گیا ہے۔ بنیاد ماڈل, بڑے سسٹمز قابلیت کے ساتھ مخصوص کاموں کی ایک وسیع رینج کو انجام دینے کے قابل ہیں، جیسے کہ ویڈیو، متن، تصاویر بنانا، پس منظر کی زبان میں بات چیت کرنا، کمپیوٹنگ کرنا، یا کمپیوٹر کوڈ بنانا۔ عارضی معاہدہ فراہم کرتا ہے کہ فاؤنڈیشن ماڈلز کو مخصوص کی تعمیل کرنی چاہیے۔ شفافیت کی ذمہ داریاں اس سے پہلے کہ وہ مارکیٹ میں رکھے جائیں۔ کے لیے سخت ترین نظام متعارف کرایا گیا۔ 'بہت زیادہ پر اثر' بنیاد ماڈل. یہ ایسے فاؤنڈیشن ماڈلز ہیں جنہیں بڑی مقدار میں ڈیٹا کے ساتھ تربیت دی جاتی ہے اور اعلیٰ درجے کی پیچیدگی، صلاحیتوں اور اوسط سے اچھی کارکردگی کے ساتھ، جو ویلیو چین کے ساتھ نظامی خطرات کو پھیلا سکتے ہیں۔

ایک نیا گورننس فن تعمیر

GPAI ماڈلز پر نئے قوانین اور یورپی یونین کی سطح پر ان کے نفاذ کی واضح ضرورت کے بعد، اے آئی آفس کمیشن کے اندر ان جدید ترین AI ماڈلز کی نگرانی، معیارات اور جانچ کے طریقوں کو فروغ دینے، اور تمام رکن ممالک میں مشترکہ قوانین کو نافذ کرنے کے لیے کام کیا گیا ہے۔ اے آزاد ماہرین کا سائنسی پینل فاؤنڈیشن ماڈلز کی صلاحیتوں کا جائزہ لینے کے لیے طریقہ کار کی ترقی میں حصہ ڈال کر، اعلیٰ اثر والے فاؤنڈیشن ماڈلز کے ظہور کے بارے میں مشورہ دے کر، اور فاؤنڈیشن ماڈلز سے متعلق ممکنہ مادی حفاظتی خطرات کی نگرانی کر کے AI آفس کو GPAI ماڈلز کے بارے میں مشورہ دے گا۔

۔ اے آئی بورڈ، جو رکن ممالک کے نمائندوں پر مشتمل ہو گا، ایک رابطہ پلیٹ فارم اور کمیشن کے لیے ایک مشاورتی ادارے کے طور پر رہے گا اور رکن ممالک کو ضابطے کے نفاذ پر ایک اہم کردار دے گا، بشمول فاؤنڈیشن ماڈلز کے لیے کوڈ آف پریکٹس کا ڈیزائن۔ آخر میں، ایک مشاورتی فورم AI بورڈ کو تکنیکی مہارت فراہم کرنے کے لیے اسٹیک ہولڈرز، جیسے صنعت کے نمائندوں، SMEs، سٹارٹ اپس، سول سوسائٹی اور اکیڈمیا کے لیے قائم کیا جائے گا۔

جرمانہ

AI ایکٹ کی خلاف ورزیوں پر جرمانے پچھلے مالی سال میں خلاف ورزی کرنے والی کمپنی کے عالمی سالانہ ٹرن اوور کے فیصد یا پہلے سے طے شدہ رقم کے طور پر مقرر کیے گئے تھے، جو بھی زیادہ ہو۔ یہ ممنوعہ AI ایپلی کیشنز کی خلاف ورزیوں کے لیے €35 ملین یا 7%، AI ایکٹ کی ذمہ داریوں کی خلاف ورزی پر €15 ملین یا 3% اور غلط معلومات کی فراہمی کے لیے €7,5 ملین یا 1,5% ہوگا۔ تاہم، عارضی معاہدے کے لئے فراہم کرتا ہے زیادہ متناسب ٹوپیاں AI ایکٹ کی دفعات کی خلاف ورزی کی صورت میں SMEs اور سٹارٹ اپس کے لیے انتظامی جرمانے پر۔

سمجھوتہ کا معاہدہ یہ بھی واضح کرتا ہے کہ قدرتی یا قانونی شخص متعلقہ سے شکایت کر سکتا ہے۔ مارکیٹ سرویلنس اتھارٹی AI ایکٹ کی عدم تعمیل کے بارے میں اور توقع کر سکتے ہیں کہ ایسی شکایت کو اس اتھارٹی کے مخصوص طریقہ کار کے مطابق ہینڈل کیا جائے گا۔

شفافیت اور بنیادی حقوق کا تحفظ

عارضی معاہدہ ایک کے لیے فراہم کرتا ہے۔ بنیادی حقوق کے اثرات کی تشخیص اس سے پہلے کہ ہائی رسک AI سسٹم کو اس کے تعینات کرنے والے مارکیٹ میں ڈالیں۔ عارضی معاہدے میں اضافہ بھی ہوتا ہے۔ شفافیت ہائی رسک AI سسٹمز کے استعمال سے متعلق۔ قابل ذکر بات یہ ہے کہ کمیشن کی تجویز کی کچھ دفعات میں اس بات کی نشاندہی کرنے کے لیے ترمیم کی گئی ہے کہ ہائی رسک AI سسٹم کے کچھ صارفین جو کہ عوامی ادارے ہیں وہ بھی اس میں رجسٹر ہونے کے پابند ہوں گے۔ EU ڈیٹا بیس ہائی رسک AI سسٹمز کے لیے۔ مزید یہ کہ، نئی شامل کردہ دفعات ایک کے صارفین کے لیے ایک ذمہ داری پر زور دیتی ہیں۔ جذبات کی شناخت کا نظام قدرتی افراد کو مطلع کرنے کے لئے جب وہ اس طرح کے نظام کے سامنے آ رہے ہیں.

جدت طرازی کی حمایت میں اقدامات

ایک ایسا قانونی فریم ورک بنانے کے مقصد سے جو زیادہ جدت پسند ہو اور شواہد پر مبنی ریگولیٹری لرننگ کو فروغ دے، اس سے متعلق دفعات جدت کی حمایت میں اقدامات کمیشن کی تجویز کے مقابلے میں کافی حد تک ترمیم کی گئی ہے۔

خاص طور پر، یہ واضح کیا گیا ہے کہ AI ریگولیٹری سینڈ باکسجس کے بارے میں خیال کیا جاتا ہے کہ وہ اختراعی AI نظاموں کی ترقی، جانچ اور توثیق کے لیے ایک کنٹرول شدہ ماحول قائم کرے، انہیں حقیقی دنیا کے حالات میں اختراعی AI نظاموں کی جانچ کی بھی اجازت دینی چاہیے۔ مزید برآں، اجازت دیتے ہوئے نئی دفعات شامل کی گئی ہیں۔ ٹیسٹنگ میں اے آئی سسٹمز کی حقیقی دنیا کے حالاتمخصوص حالات اور حفاظتی اقدامات کے تحت۔ چھوٹی کمپنیوں کے لیے انتظامی بوجھ کو کم کرنے کے لیے، عارضی معاہدے میں ایسے آپریٹرز کی مدد کے لیے کیے جانے والے اقدامات کی فہرست شامل ہے اور کچھ محدود اور واضح طور پر بیان کردہ تحقیر کے لیے فراہم کی گئی ہے۔

داخلہ قوت میں

عارضی معاہدہ فراہم کرتا ہے کہ AI ایکٹ لاگو ہونا چاہیے۔ دو سال اس کے لاگو ہونے کے بعد، مخصوص دفعات کے لیے کچھ مستثنیات کے ساتھ۔

اگلے مراحل

آج کے عارضی معاہدے کے بعد، نئے ضابطے کی تفصیلات کو حتمی شکل دینے کے لیے آنے والے ہفتوں میں تکنیکی سطح پر کام جاری رہے گا۔ اس کام کے مکمل ہونے کے بعد ایوان صدر سمجھوتے کا متن رکن ممالک کے نمائندوں (کورپر) کو توثیق کے لیے پیش کرے گا۔

شریک قانون سازوں کی طرف سے رسمی طور پر اپنانے سے پہلے پورے متن کی دونوں اداروں کی طرف سے تصدیق اور قانونی-لسانی نظر ثانی کی ضرورت ہوگی۔

پس منظر کی معلومات

کمیشن کی تجویز، جو اپریل 2021 میں پیش کی گئی ہے، بنیادی حقوق کا احترام کرنے والے محفوظ اور قانونی AI کی واحد مارکیٹ میں ترقی اور اپٹیک کو فروغ دینے کے لیے یورپی یونین کی پالیسی کا ایک اہم عنصر ہے۔

تجویز خطرے پر مبنی نقطہ نظر کی پیروی کرتی ہے اور AI کے لیے ایک یکساں، افقی قانونی فریم ورک تیار کرتی ہے جس کا مقصد قانونی یقین کو یقینی بنانا ہے۔ مسودہ ریگولیشن کا مقصد AI میں سرمایہ کاری اور اختراع کو فروغ دینا، بنیادی حقوق اور حفاظت سے متعلق موجودہ قانون کی حکمرانی اور موثر نفاذ کو بڑھانا، اور AI ایپلی کیشنز کے لیے ایک ہی مارکیٹ کی ترقی کو آسان بنانا ہے۔ یہ مصنوعی ذہانت سے متعلق مربوط منصوبہ سمیت دیگر اقدامات کے ساتھ ہاتھ ملاتا ہے جس کا مقصد یورپ میں AI میں سرمایہ کاری کو تیز کرنا ہے۔ 6 دسمبر 2022 کو، کونسل نے اس فائل پر ایک عمومی نقطہ نظر (گفت و شنید کے مینڈیٹ) کے لیے ایک معاہدہ کیا اور جون 2023 کے وسط میں یورپی پارلیمنٹ ('ٹریلاگز') کے ساتھ بین الانسٹیٹیوشنل مذاکرات میں داخل ہوئے۔

اس مضمون کا اشتراک کریں:

EU رپورٹر مختلف قسم کے بیرونی ذرائع سے مضامین شائع کرتا ہے جو وسیع نقطہ نظر کا اظہار کرتے ہیں۔ ان مضامین میں لی گئی پوزیشنز ضروری نہیں کہ وہ EU Reporter کی ہوں۔

رجحان سازی