د IMF خپرونو راپور په مالي سکټور کې د تولیدي AI مخ پر ودې خطرونه په ګوته کوي

By Bitcoin.com - 7 میاشتې دمخه - د لوستلو وخت: 3 دقیقې

د IMF خپرونو راپور په مالي سکټور کې د تولیدي AI مخ پر ودې خطرونه په ګوته کوي

لکه څنګه چې مصنوعي استخبارات (AI) په مالي سکتور کې خپل پراختیا ته دوام ورکوي، یو نوی راپور چې د پیسو نړیوال وجهي صندوق (IMF) خپرونو ویب پورټل کې خپور شوی په مالي نړۍ کې د وروستي AI وړتیاو سره تړلو خطرونو په اړه خبرداری ورکوي.

د فکر کولو ماشینونو وده: راپور په مالیه کې د تولیدي AI څخه د خطرونو خبرداری ورکوي

د راپورد غیاث شبسیف او البخیر بوخیروا لخوا لیکل شوي، تمرکز کوي تولیدي مصنوعي استخبارات، ډیری وختونه د تولیدي AI په نوم یادیږي ، کوم چې د AI یوه بڼه ده چې د اصلي مینځپانګې رامینځته کولو وړ وي لکه متن ، عکسونه او ویډیو. د پام وړ سیسټمونه لکه Openai's Chatgpt، Anthropic's Claude، او Midjourney په وروستیو میاشتو کې د دې ټیکنالوژۍ کارولو لپاره شهرت ترلاسه کړی.

د مطالعې په وینا، پداسې حال کې چې تولیدي AI د غوښتنلیکونو لپاره ژمنې لري لکه د اتوماتیک پروسې او د خطر مدیریت ته وده ورکول، دا د معلوماتو محرمیت، تعصب، د فعالیت پیاوړتیا، او سایبر امنیت پورې اړوند نوي خطرونه هم معرفي کوي.

څیړونکي په ګوته کوي چې تولیدي AI سیسټمونه په پراخه کچه آنلاین ډیټا جذبوي ، د محرمیت سرغړونو یا له دې معلوماتو څخه د تعصبونو تکرار په اړه اندیښنې راپورته کوي. برسېره پردې، د سیسټمونو وړتیا په بشپړ ډول نوي منځپانګې رامینځته کوي پدې معنی چې دوی کولی شي د پام وړ مګر ناسم معلومات تولید کړي. په راپور کې راغلي:

په عامه توګه موجود [جنریټیو AI] سیسټمونه د مالي موسسو لپاره د محرمیت مهم ننګونې رامینځته کوي چې غواړي خپل وړتیاوې په خپلو عملیاتو کې شامل کړي. دا اتومات کول دا احتمال زیاتوي چې حساس مالي معلومات او شخصي معلومات چې د مالي موسسو د کارمندانو لخوا د دوی د [جنریټیو AI] سره د ښکیلتیا په وخت کې چمتو شوي وي افشا شي.

راپور خبرداری ورکوي چې دا مسلې کولی شي د خلکو باور زیانمن کړي که چیرې تولیدي AI په غیر مسؤلانه ډول په مالیه کې ځای په ځای شي. د مثال په توګه، د AI لخوا رامینځته شوي پیرودونکي خطر پروفایل دواړه غلط او تبعیض کیدی شي. څیړونکي ټینګار کوي چې مشهور شوي چیټ بوټ ممکن غلط مالي مشورې چمتو کړي.

د 2023 په اګست کې، ګاري ګینسلر، د متحده ایاالتو د امنیت او تبادلې کمیسیون (SEC) اوسنی رییس، یو خبرداری خپور کړ دا چې د AI ټیکنالوژي به د راتلونکي مالي بحرانونو اصلي برخه وي. د امنیت تنظیم کونکي وړاندیز کړی چې د AI ماډل ځینې خطرونه حل کړي. په ورته وخت کې، SEC لري پدې وروستیو کې تصویب شوی د Nasdaq لپاره د نوي AI لخوا ځواکمن امر ډول، د دودیز مالي (tradfi) تبادلې لپاره دا ډول لومړی تصویب نښه کوي.

څیړونکي ټینګار کوي چې سایبر امنیت یوه بله اندیښنه ده، د تولیدي AI سره په احتمالي توګه د ډیرو پیچلو فشینګ هڅو رامینځته کولو لپاره کارول کیږي. راپور وړاندیز کوي چې د زیانونو بشپړ حد لاهم نه پوهیږي او ممکن د وخت په تیریدو سره وده وکړي. برسیره پردې، څیړنه د ادعا شویو زیانونو په اړه نور بحث کوي، پشمول د تولیدي AI "جیل ماتول."

"اوسني [جنراتي AI] ماډلونه په زیاتیدونکي توګه د بریالي 'جیل ماتولو' بریدونو تابع دي ،" د مطالعې لیکوالانو یادونه وکړه. "دا بریدونه په احتیاط سره ډیزاین شوي پرامپټونو (د کلمو ترتیب یا جملې) په رامینځته کولو تکیه کوي ترڅو [د AIs] قواعدو او فلټرونو څخه تیر شي یا حتی ناوړه معلومات یا لارښوونې دننه کړي (وروستی ځینې وختونه د "پرامپټ انجیکشن برید" په نوم یادیږي). دا بریدونه کولی شي [د تولیدي AI] عملیات فاسد کړي یا حساس معلومات له مینځه یوسي.

د دې خطرونو د کمولو لپاره، راپور د AI سیسټمونو نږدې انساني څارنې وړاندیز کوي، د AI د پریکړې کولو تشریح کولو وړتیا ښه کول، د تنظیمي ظرفیت پیاوړتیا، او د AI حکومتدارۍ په اړه نړیوالې همکارۍ ته وده ورکول. پداسې حال کې چې د تولیدي AI د بدلون وړ ظرفیت اعتراف کوي، لیکوالان د محتاط چلند په اړتیا ټینګار کوي، په ځانګړې توګه د مالیې په څیر حساس سکتور کې.

تاسو د IMF خپرونو ویب پورټل کې خپاره شوي فینټیک راپور په اړه څه فکر کوئ؟ د دې موضوع په اړه خپل نظرونه او نظرونه لاندې د نظرونو برخه کې شریک کړئ.

اصلي سرچینه: Bitcoin.com