在关键事务使用人工智能还需谨慎

高智创新    人工智能    在关键事务使用人工智能还需谨慎

 

      人工智能(AI)已被证明是各个领域的宝贵工具,但应仔细考虑其在关键事项中的应用。最近两个涉及人工智能聊天机器人ChatGPT在癌症信息和法律研究领域的案例揭示了人工智能使用中固有的潜在风险和责任。

人工智能和癌症信息:精确性与清晰度

      由亨茨曼癌症研究所的医学博士Skyler Johnson领导的一项研究深入研究了ChatGPT提供的癌症相关信息的可靠性。研究发现,人工智能聊天机器人能够以令人印象深刻的97%的准确率解决关于癌症的常见问题。该统计数据表明人工智能可能成为一个非常有前途的工具,用来给寻求有关其病情信息的患者提供帮助。

      然而,同一研究强调了一个令人担忧的情况:误解的可能性。虽然ChatGPT提供的信息是准确的,但聊天机器人使用的语言往往是间接的、模糊的,有时还不清楚。这种清晰度缺乏可能会导致误解,并可能导致癌症患者的决策不利。

      癌症相关信息领域的赌注很高。Johnson博士之前领导的一项研究表明,错误信息可能会对癌症患者造成伤害,特别是在社交媒体平台上发现时。这些平台与人工智能一样,通常用于寻求信息,但它们可能会无意中传播有害的不准确性。

 

      鉴于这些发现,Johnson和他的团队敦促在考虑使用聊天机器人获取有关癌症的信息时要谨慎。他们强调,需要进一步研究患者使用聊天机器人获取癌症信息的频率,以及人工智能对有关该疾病相关查询所给出的响应的准确性。

 

法律研究中的人工智能:未经验证的信任风险

      在与哥伦比亚航空公司Avianca的法律诉讼中,由于依赖人工智能,律师们发现自己处于岌岌可危的境地。他们在诉讼中引用了六起案件,这些案件在他们不知道的情况下,完全是由ChatGPT捏造的。参与的律师之一施瓦茨承认使用人工智能聊天机器人进行法律研究,并在未经独立验证的情况下信任其回应。

      在发现不存在的案例后,对方律师提请法院注意这个问题。由此产生的场景远非理想,法官考虑对原告的律师进行制裁,因为提交了虚构的法律先例。

      施瓦茨表示遗憾,承认他没有意识到人工智能生成虚假内容的可能性。他承诺,除非对其真实性进行绝对验证,否则将来将停止将生成人工智能用于法律研究。

 

      这一事件凸显了法律研究中一丝不苟的事实核查的迫切需要,特别是在依赖人工智能时。它清楚地提醒我们,对人工智能生成的信息存在未经验证的信任的潜在陷阱,以及随之而来的严重后果。

 

当前将人工智能应用于关键事项还需谨慎

      随着我们继续将人工智能融入我们的日常生活,这些事件凸显了谨慎乐观的必要性。目前,在没有适当的指导方针和严格的测试的情况下,建议不要将人工智能用于关键事务,或者必须进行另外的验证。与此同时,应该进行彻底的研究和严格的测试,以确保安全可靠地使用人工智能。只有充分了解人工智能的能力和局限性,我们才能负责任地利用其潜力。

 

 

2023-05-29 08:28
浏览量:0