ادارات دولتی در سراسر آفریقای جنوبی به طور فزاینده‌ای بر ابزارهای دیجیتال برای ارزیابی برنامه‌های عمومی و نظارت بر عملکرد تکیه می‌کنند. این بخشی ازادارات دولتی در سراسر آفریقای جنوبی به طور فزاینده‌ای بر ابزارهای دیجیتال برای ارزیابی برنامه‌های عمومی و نظارت بر عملکرد تکیه می‌کنند. این بخشی از

نظارت دیجیتال در خدمات عمومی آفریقای جنوبی در حال رشد است – مقررات باید به‌روز شوند

2026/02/16 12:49
مدت مطالعه: 7 دقیقه

بخش‌های دولتی در سراسر آفریقای جنوبی به طور فزاینده‌ای به ابزارهای دیجیتال برای ارزیابی برنامه‌های عمومی و نظارت بر عملکرد متکی هستند. این بخشی از اصلاحات گسترده‌تر بخش عمومی است. هدف آنها بهبود پاسخگویی، پاسخ به فشار حسابرسی و مدیریت برنامه‌های در مقیاس بزرگ با کارکنان و بودجه محدود است.

در اینجا یک مثال آورده شده است. بخش‌های ملی که تحویل مسکن، کمک‌های اجتماعی یا گسترش زیرساخت‌ها را ردیابی می‌کنند، به جای گزارش‌های دوره‌ای مبتنی بر کاغذ، به سیستم‌های عملکرد دیجیتال متکی هستند. داشبوردها – روشی برای نمایش داده‌های بصری در یک مکان – به‌روزرسانی‌های نزدیک به زمان واقعی (بلادرنگ) در ارائه خدمات را ارائه می‌دهند.

مورد دیگر استفاده از پلتفرم‌هایی است که داده‌های موبایل را جمع‌آوری می‌کنند. اینها به مقامات خط مقدم و پیمانکاران اجازه می‌دهند تا اطلاعات را مستقیماً از میدان بارگذاری کنند.

هر دو مثال خود را به استفاده از هوش مصنوعی (AI) برای پردازش مجموعه داده‌های بزرگ و تولید بینش‌هایی که قبلاً ماه‌ها برای تجزیه و تحلیل زمان می‌برد، می‌رسانند.

این تغییر اغلب به عنوان گامی رو به جلو برای پاسخگویی و کارایی در بخش عمومی به تصویر کشیده می‌شود.

من یک محقق سیاست عمومی با علاقه ویژه به نظارت و ارزیابی برنامه‌های دولتی هستم. تحقیقات اخیر من روند نگران‌کننده‌ای را نشان می‌دهد، که گرایش به فناوری بسیار سریع‌تر از چارچوب‌های اخلاقی و حکمرانی که قرار است آن را تنظیم کنند، در حال آشکار شدن است.

در موارد مورد بررسی من، ابزارهای دیجیتال قبلاً در فرآیندهای نظارت و ارزیابی روتین جاسازی شده بودند. اما استانداردهای روشنی برای هدایت استفاده از آنها وجود نداشت.

این خطراتی را در مورد نظارت، طرد، سوء استفاده از داده‌ها و قضاوت ضعیف حرفه‌ای ارائه می‌دهد. این خطرات انتزاعی نیستند. آنها نحوه تجربه شهروندان از دولت، نحوه مدیریت داده‌های آنها و اینکه صدای چه کسی در نهایت در تصمیمات سیاسی به حساب می‌آید را شکل می‌دهند.

وقتی فناوری از سیاست پیشی می‌گیرد

ارزیابی بخش عمومی شامل ارزیابی برنامه‌ها و سیاست‌های دولتی است. این تعیین می‌کند که آیا:

  • منابع عمومی به طور موثر استفاده می‌شوند
  • برنامه‌ها به نتایج مورد نظر خود می‌رسند
  • شهروندان می‌توانند دولت را در قبال عملکرد پاسخگو نگه دارند.

به طور سنتی، این ارزیابی‌ها بر تعامل رو در رو بین جوامع، ارزیاب‌ها، دولت و دیگران متکی بودند. آنها شامل روش‌های کیفی بودند که امکان تفاوت ظریف، توضیح و ایجاد اعتماد را فراهم می‌کردند.

ابزارهای دیجیتال این را تغییر داده‌اند.

در تحقیقات خود، من با ارزیاب‌ها در سراسر دولت، سازمان‌های غیردولتی، دانشگاه، انجمن‌های حرفه‌ای و مشاوره‌های خصوصی مصاحبه کردم. من یک نگرانی ثابت در سراسر این موارد پیدا کردم. سیستم‌های دیجیتال اغلب بدون راهنمایی اخلاقی متناسب با عملکرد ارزیابی معرفی می‌شوند.

راهنمایی اخلاقی قوانین روشن و عملی برای نحوه استفاده از ابزارهای دیجیتال در ارزیابی‌ها ارائه می‌دهد. به عنوان مثال، هنگام استفاده از داشبوردها یا تجزیه و تحلیل داده‌های خودکار، راهنمایی باید از ارزیاب‌ها بخواهد که توضیح دهند داده‌ها چگونه تولید می‌شوند، چه کسی به آنها دسترسی دارد و چگونه یافته‌ها ممکن است بر جوامع مورد ارزیابی تأثیر بگذارد. همچنین باید از استفاده از سیستم‌های دیجیتال برای نظارت بر افراد بدون رضایت یا رتبه‌بندی برنامه‌ها به روش‌هایی که زمینه را نادیده می‌گیرند جلوگیری کند.

قانون حفاظت از اطلاعات شخصی آفریقای جنوبی یک چارچوب قانونی عمومی برای حفاظت از داده‌ها فراهم می‌کند. اما معضلات اخلاقی خاصی را که هنگام خودکار شدن، مبتنی بر رایانش ابری و واسطه الگوریتمی ارزیابی ایجاد می‌شود، پوشش نمی‌دهد.

نتیجه این است که ارزیاب‌ها اغلب بدون استانداردهای روشن، در حال پیمایش در زمین اخلاقی پیچیده باقی می‌مانند. این امر نهادها را مجبور می‌کند که به سابقه، عادات غیررسمی، شیوه‌های گذشته و پیش‌فرض‌های نرم‌افزار متکی باشند.

افزایش نظارت و سوء استفاده از داده‌ها

پلتفرم‌های دیجیتال جمع‌آوری حجم زیادی از داده‌ها را ممکن می‌سازند. هنگامی که داده‌ها به سیستم‌های مبتنی بر رایانش ابری یا پلتفرم های شخص ثالث بارگذاری می‌شوند، کنترل بر ذخیره‌سازی، استفاده مجدد و اشتراک‌گذاری آن اغلب از ارزیاب‌ها به دیگران منتقل می‌شود.

چندین ارزیاب موقعیت‌هایی را توصیف کردند که در آنها داده‌هایی که از طرف بخش‌های دولتی جمع‌آوری کرده بودند، بعداً توسط بخش‌ها یا سایر آژانس ها های دولتی مورد استفاده مجدد قرار گرفتند. این بدون آگاهی صریح شرکت‌کنندگان انجام شد. فرآیندهای رضایت در محیط‌های دیجیتال اغلب به یک کلیک کاهش می‌یابند.

نمونه‌هایی از موارد استفاده دیگر شامل اشکال دیگر تجزیه و تحلیل، گزارش‌دهی یا نظارت نهادی بود.

یکی از خطرات اخلاقی که از تحقیقات به دست آمد، استفاده از این داده‌ها برای نظارت بود. این استفاده از داده‌ها برای نظارت بر افراد، جوامع یا کارکنان خط مقدم است.

طرد دیجیتال و صداهای نامرئی

ابزارهای ارزیابی دیجیتال اغلب به عنوان گسترش دسترسی و مشارکت ارائه می‌شوند. اما در عمل، آنها می‌توانند گروه‌های از قبل به حاشیه رانده شده را طرد کنند. جوامع با دسترسی محدود به اینترنت، سواد دیجیتال پایین، موانع زبانی یا زیرساخت غیرقابل اعتماد کمتر احتمال دارد که به طور کامل در ارزیابی‌های دیجیتال شرکت کنند.

ابزارهای خودکار محدودیت‌هایی دارند. به عنوان مثال، آنها ممکن است در پردازش داده‌های چند زبانه، لهجه‌های محلی یا اشکال بیان فرهنگی خاص با مشکل مواجه شوند. این منجر به نمایش‌های جزئی یا تحریف شده از تجربه زیسته می‌شود. ارزیاب‌ها در مطالعه من دیدند که این در عمل اتفاق می‌افتد.

این طرد عواقب جدی به ویژه در کشوری با نابرابری مانند آفریقای جنوبی دارد. ارزیابی‌هایی که به شدت به ابزارهای دیجیتال متکی هستند ممکن است جمعیت‌های شهری و متصل را پیدا کنند و جوامع روستایی یا غیررسمی را از نظر آماری نامرئی کنند.

این صرفاً یک محدودیت فنی نیست. این شکل می‌دهد که کدام نیازها شناخته می‌شوند و تجربیات چه کسی تصمیمات سیاسی را آگاه می‌کند. اگر داده‌های ارزیابی آسیب‌پذیرترین‌ها را کمتر نشان دهد، برنامه‌های عمومی ممکن است مؤثرتر از آنچه هستند به نظر برسند. این شکست‌های ساختاری را پنهان می‌کند تا اینکه به آنها رسیدگی کند.

در مطالعه من، برخی از ارزیابی‌ها روندهای عملکرد مثبت را گزارش کردند علیرغم اینکه ارزیاب‌ها شکاف‌هایی را در جمع‌آوری داده‌ها ذکر کردند.

الگوریتم‌ها خنثی نیستند

ارزیاب‌ها همچنین نگرانی‌هایی را در مورد اختیار فزاینده اعطا شده به خروجی‌های الگوریتمی مطرح کردند. داشبوردها، گزارش‌های خودکار و تجزیه و تحلیل‌های مبتنی بر هوش مصنوعی اغلب به عنوان تصویر واقعی تلقی می‌شوند. این حتی زمانی اتفاق می‌افتد که آنها با دانش مبتنی بر میدان یا درک زمینه‌ای در تضاد باشند.

به عنوان مثال، داشبوردها ممکن است یک هدف را در مسیر نشان دهند. اما در مثالی از بازدید از سایت، ارزیاب‌ها ممکن است نقص یا نارضایتی پیدا کنند.

چندین شرکت‌کننده فشار از سوی سرمایه‌گذاران یا نهادها را برای تکیه بر تحلیل اعداد گزارش کردند.

با این حال، الگوریتم‌ها فرضیات، مجموعه داده‌ها و اولویت‌های جاسازی شده در طراحی خود را منعکس می‌کنند. هنگامی که به طور غیرانتقادی اعمال می‌شوند، می‌توانند تعصب را بازتولید کنند، پویایی‌های اجتماعی را بیش از حد ساده کنند و بینش کیفی را نادیده بگیرند.

اگر سیستم‌های دیجیتال دیکته کنند که چگونه داده‌ها باید جمع‌آوری، تجزیه و تحلیل و گزارش شوند، ارزیاب‌ها در معرض خطر تبدیل شدن به تکنسین هستند و نه متخصصان مستقلی که قضاوت را اعمال می‌کنند.

چرا آفریقا به اخلاق حساس به زمینه نیاز دارد

در سراسر آفریقا، استراتژی‌ها و سیاست‌های ملی در مورد فناوری‌های دیجیتال اغلب به شدت از چارچوب‌های بین‌المللی وام می‌گیرند. اینها در زمینه‌های بسیار متفاوت توسعه یافته‌اند. اصول جهانی در مورد اخلاق هوش مصنوعی و حکمرانی داده‌ها نقاط مرجع مفیدی را ارائه می‌دهند. اما آنها به طور کافی به واقعیت‌های نابرابری، بی‌اعتمادی تاریخی و دسترسی نابرابر دیجیتال در سراسر بخش عمومی بسیاری از آفریقا نمی‌پردازند.

تحقیقات من استدلال می‌کنند که حکمرانی اخلاقی برای ارزیابی دیجیتال باید حساس به زمینه باشد. استانداردها باید موارد زیر را پوشش دهند:

  • چگونه رضایت به دست می‌آید
  • چه کسی مالک داده‌های ارزیابی است
  • چگونه ابزارهای الگوریتمی انتخاب و حسابرسی می‌شوند
  • چگونه استقلال ارزیاب محافظت می‌شود.

چارچوب‌های اخلاقی باید در مرحله طراحی سیستم‌های دیجیتال جاسازی شوند.The Conversation

لسدی سنامله ماتلالا، استادیار ارشد و محقق در سیاست عمومی، نظارت و ارزیابی‌ها، دانشگاه یوهانسبورگ

این مقاله از The Conversation تحت مجوز Creative Commons بازنشر شده است. مقاله اصلی را بخوانید.

فرصت‌ های بازار
لوگو PUBLIC
PUBLIC قیمت لحظه ای(PUBLIC)
$0.0149
$0.0149$0.0149
+0.26%
USD
نمودار قیمت لحظه ای PUBLIC (PUBLIC)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل service@support.mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.