本技术属于可信人工智能技术领域,具体公开了一种基于图神经网络的支付监管模型可信评估方法,包括训练用于对图神经网络中节点进行分类的支付监管模型;将图神经网络的边界节点和对应标签作为干净指纹序列;将通过可疑篡改模型得到的图神经网络的边界节点和对应标签作为可疑指纹序列;根据干净指纹序列和可疑指纹序列,确定支付监管模型的安全性。本发明首次提出了在支付监管模型场景下的五大维度评估定义,包括隐私性、可解释性、安全性、鲁棒性和公平性。五大维度全面覆盖了支付监管模型的核心评估领域,填补了业界在此领域的空白。本发明提供的支付监管模型可信评估方法,对于推动支付监管模型的发展和完善具有重要意义。
背景技术
当前,人工智能技术在各行业中的应用越来越广泛,其中包括金融贸易领域。然而,随着应用的深入,人工智能模型的可信特性,包括隐私性、可解释性、安全性、鲁棒性和公平性等五个维度,越来越受到关注。业界已经提出了一些评估这些可信特性的方法,但这些方法主要针对的是通用AI模型,并不能直接适用于金融贸易场景的可信特性定义和评估。
在隐私性方面,现有的评估方法主要是通过模型反演攻击和知识蒸馏等手段评估模型的训练数据和模型本身的泄露风险。然而在金融贸易场景下,这些评估方法可能无法全面地考虑到金融数据的特殊性和敏感性,因此无法得出准确的评估结果。在可解释性方面,现有的评估方法主要是通过比较模型的输出和人类的预期结果评估模型的可解释性。然而在金融贸易场景下,由于涉及到复杂的交易逻辑和规则,这些评估方法可能无法准确地评估模型的可解释性。在安全性方面,现有的评估方法主要是通过模型行为分析手段评估模型的安全性。然而在金融贸易场景下,由于涉及到大量的金融交易数据和复杂的安全需求,这些评估方法可能无法全面地评估模型的安全性。在鲁棒性方面,现有的评估方法主要是通过制造恶意对抗样本评估模型在不同情况下的性能。然而由于涉及到复杂的交易环境,这些评估方法忽略了其在金融贸易场景下的可实现性,因此本发明旨在实现真实贸易场景下的潜在攻击。在公平性方面,现有的评估方法主要集中于重采样技术和生成虚拟样本技术,通过减少多数类样本或增加少数类样本采样次数,以平衡训练数据,达到公平性提升的效果。然而在金融贸易场景下,由于涉及到各种复杂的交易机构和交易规则,这些评估方法可能无法准确地评估模型的公平性。
因此,现有的通用AI模型的可信特性评估方法无法满足金融贸易场景下的特殊需求,需要在金融贸易场景下重新定义和设计可信特性的评估方法。
实现思路