尊龙集团-专家警告:AI系统的可解释性存在欺骗可能
2025-08-07 12:14:38
share to :

  德国人工智能研究中央(DFKI)研究团队于日前召开的国际呆板进修年夜会上陈诉称,于可注释人工智能(AI)范畴,“X-hacking”是一个此前被遍及轻忽的危害,并呼吁批判性及反思性地利用主动化呆板进修(AutoML)东西。

  假如AI体系作出了准确猜测,但却以彻底差别的方式注释其患上出的这些成果,会发生甚么?DFKI数据科学团队先容了“X-hacking”给AI可托度带来布局性危害的研究结果。

  X-hacking一词源在统计学中的P-hacking。所谓P-hacking指的是研究职员可经由过程一些数据操作技巧,于统计学上患上出一个有显著意义的成果,纵然这个成果现实上并没有意义。这相称在一种数据窜改,可能会致使发布假阳性成果。

  响应的X-hacking描写了两种焦点机制:一是Cherry-picking,即从浩繁一样优异的模子中,精心遴选出注释能力最强、最能撑持预期成果的模子;二是定向搜刮,AutoML体系不仅能优化猜测机能,还有能精准地找到具备特定注释模式的模子。但这内里存于的危害往往被低估。

  纵然模子患上出的成果险些不异,所谓的特性主要性也可能存于巨年夜差异。这于医学研究或者社会科学等运用范畴尤为敏感,由于于这些范畴,可注释的模子凡是组成要害决议计划的基础。

  AutoML代表了开发、选择及优化呆板进修模子的主动化流程。软件东西接受了很多之前只有经验富厚的呆板进修工程师才能完成的使命,例如选择适合的模子架构、数据预处置惩罚及超参数优化等。于医学、工业或者社会研究等数据密集型范畴,AutoML有望实现更快的开发速率、更低的进入门坎及可反复的成果。

  然而,这类主动化使患上人们难以理解模子决议计划的制订方式,这是可注释AI的一个要害问题。是以,DFKI研究团队建议,利用AutoML的学科应该意想到要领的危害,而不单单只是信托软件。(记者李山)

-尊龙集团


深圳总部
深圳市南山区粤海街道深圳湾
青岛分部
青岛市崂山区科苑
成都分部
成都市双流区西航港街道
上海分部
上海市浦东新区张江高科技园区
南京分部
南京市江北新区