许多关于人工智能安全监管的政策讨论集中在建立监管“护栏”的必要性上,以保护公众免受人工智能技术的风险。专家们现在认为,政策制定者应该要求“牵引绳”,而不是施加护栏。
许多关于人工智能安全监管的政策讨论集中在建立监管“护栏”的必要性上,以保护公众免受人工智能技术的风险。在《风险分析》期刊上发表的一篇新论文中,两位专家认为,政策制定者应该要求“牵引绳”,而不是施加护栏。
宾夕法尼亚大学监管项目主任、宾夕法尼亚大学凯里法学院教授凯里·科格利安尼斯和圣母大学计算机科学博士候选人科尔顿·R·克拉姆解释说,以管理为基础的监管(灵活的“牵引绳”策略)比规定性的护栏方法更有效,因为人工智能过于异质和动态,无法在固定的轨道内运作。作者写道,牵引绳“灵活且可适应——就像在社区遛狗时使用的物理牵引绳允许范围广泛的移动与探索。”牵引绳“允许人工智能工具在没有监管障碍的情况下探索新的领域。”
人工智能的各种应用包括社交媒体、聊天机器人、自动驾驶汽车、精准医疗、金融科技投资顾问等。虽然人工智能为社会提供了好处,例如仅举一个例子,能够发现经过良好训练的放射科医生可能会错过的癌性肿瘤证据,但它也可能带来风险。
在他们的论文中,科格利安尼斯和克拉姆提供了三个人工智能风险的例子:自动驾驶汽车(AV)碰撞、与社交媒体相关的自杀,以及通过各种应用和数字格式(如人工智能生成的文本、图像和视频)引发的偏见和歧视。
通过灵活的管理为基础的监管,使用在上述每种情况中以及其他情况下存在风险的人工智能工具的公司,将被期望通过创建内部系统来提前预见和减少使用他们工具可能造成的伤害范围,从而将其人工智能工具“牵引绳”化。
科格利安尼斯和克拉姆写道,以管理为基础的监管能够灵活应对“人工智能的新使用和问题,更好地适应技术探索、发现和变革。”同时,它提供了“一个像牵引绳一样的系留结构,可以帮助防止人工智能‘失控’。”