最近,OpenAI 发出警告,称其人工智能模型 ChatGPT 正被网络犯罪分子用来进行各种恶意活动,包括开发恶意软件、传播虚假信息和进行网络钓鱼攻击。

根据一份新报告,自2024年初以来,OpenAI 已经在全球范围内干预了超过20起欺骗性操作,揭示了 AI 被滥用的严峻趋势。这些活动不仅包括调试恶意软件,还涉及为虚假的社交媒体账号撰写内容和生成诱人的钓鱼信息。

OpenAI 表示,其使命是确保这些工具为人类的共同利益服务,因此公司正致力于发现、预防和打击滥用其模型的行为。尤其是在这个选举年,OpenAI 强调,建立强大的多层防御系统以抵御与国家相关的网络攻击和隐蔽的影响操作显得尤为重要。这些操作可能会利用其模型在社交媒体等平台上进行虚假宣传。

报告还指出,OpenAI 在2024年5月的威胁报告之后,继续干预了包括恶意软件调试、网站文章撰写以及生成虚假社交媒体内容等多种活动。这些行为的复杂程度各不相同,从简单的内容生成请求到复杂的多阶段社交媒体分析和响应行动都有涉及。甚至有一起案例与 AI 使用的假消息有关。

为了更好地理解网络犯罪分子如何利用 AI,OpenAI 分析了这些被干预的活动,识别出了一些初步趋势,认为这些趋势可以为 AI 在更广泛的威胁环境中的讨论提供重要信息。

OpenAI 的分析中提到,AI 为防御者提供了强大的能力,可以识别和分析可疑行为。尽管调查过程仍然需要人类的判断和专业知识,但这些新工具让 OpenAI 在某些分析步骤上从几天缩短到了几分钟。此外,网络犯罪分子通常在获取基本工具后,利用 OpenAI 的模型进行活动的中间阶段,待其部署 “成品” 后才会在互联网上发布。

虽然网络犯罪分子仍在不断演变和尝试使用 OpenAI 的模型,但目前并没有证据显示这导致了他们在创建新型恶意软件或构建病毒性受众方面取得了实质性突破。实际上,在今年的选举相关内容中,OpenAI 发现的欺骗性活动并没有引起广泛的社会媒体互动或持续的关注。

未来,OpenAI 将继续与其情报、调查、安全研究和政策团队协作,以预测恶意行为者可能如何利用先进模型进行有害活动,并相应地计划执法行动。他们表示,将与内部安全团队分享发现,与利益相关者合作,并与行业同行及研究界携手应对新兴风险,维护集体安全与安保。

划重点:

📌 OpenAI 发现网络犯罪分子利用 ChatGPT 进行恶意软件开发和虚假信息传播。

🔒 自2024年初以来,OpenAI 已成功干预超过20起欺骗性操作,保护网络安全。

🤖 AI 模型虽然被滥用,但目前尚未显著提升网络犯罪分子的恶意软件创作能力。