به گزارش گروه آنلاین روزنامه دنیای اقتصاد؛ شرکتکنندگان این پنل بر این باور بودند که بدون چارچوب شفاف و مرجعیت مشخص برای مدیریت داده استفاده از هوش مصنوعی میتواند به نتایج اشتباه، پیشبینیهای پرخطر و حتی تبعیضهای الگوریتمی منجر شود؛ مسائلی که نهتنها اعتماد عمومی را از بین میبرد، بلکه مانع پذیرش فناوری توسط کسبوکارها نیز میشود.
صیفی با اشاره به اهمیت مدیریت داده گفت: «برای مدلهای هوش مصنوعی، داده باید شفاف و قابل اعتماد باشد. اگر دادهها خام و اشتباه باشند، خروجیها پرهزینه و خطرناک خواهند بود.»
او بر نقش حاکمیت داده تأکید کرد و هشدار داد که بیتوجهی به این موضوع میتواند به کاهش اعتبار نتایج و شکلگیری تبعیضهای سیستماتیک منجر شود.
در این بین عالیشاهی بعد اخلاقی ماجرا را برجسته کرد و گفت: «عدالت، شفافیت و حفظ حریم خصوصی سه مولفه کلیدی در هوش مصنوعی هستند. ما نیازمند تشکیل کمیته اخلاق و تدوین قوانین مشخص هستیم.»
او افزود که در دنیا نهادهای متولی برای نظارت بر مدلهای هوش مصنوعی وجود دارد، اما در ایران هنوز معماری درست شکل نگرفته است.
به باور او مشکل اصلی نه در فناوری، بلکه در مقاومت مدیران سنتی و کمبود فرهنگسازی است: «مدیرانی که چوب لای چرخ میگذارند باید پایش شوند، زیرا از نظر تکنولوژی مشکلی نداریم.»
اصغری نیز بر مسأله انحصار داده تأکید کرد و گفت: «برخی سازمانها داده را قدرت میدانند و با انحصار آن مانع گردش داده میشوند. تا زمانی که داده در گردش قرار نگیرد، کیفیت آن سنجیده نمیشود و خلق ارزش ممکن نخواهد بود.» او یادآور شد که دادههای کثیف منجر به خطا در هوش مصنوعی میشوند و تغییرات فرهنگی برای پذیرش گردش داده باید بر تغییرات سختافزاری و نرمافزاری مقدم باشد.
به گفته اصغری برخی نهادها هنوز باورپذیری لازم نسبت به ارزش هوش مصنوعی ندارند، در حالی که سرمایهگذاری اولیه میتواند در بلندمدت هزینهها را کاهش دهد.
باید یادآور شد که برای عبور از چالشهای هوش مصنوعی، سه رکن اساسی ضروری است؛ ایجاد چارچوب حاکمیت داده، نهادینه کردن اصول اخلاقی و فرهنگسازی در سازمانها. بدون این سه، حرکت به سمت هوش مصنوعی نه تنها دشوار، بلکه خطرناک خواهد بود.