歐洲刑警組織在一篇報告中警告,像ChatGPT這類基于人工智能的系統很可能會被犯罪組織濫用。ChatGPT是一種大型語言模型(LLM),用以處理、操作及生成文本。它能夠回答絕大多數問題、翻譯文本、進行對話交流、甚至是生成代碼。同時,這種技術也可能被犯罪分子用于社會工程攻擊、虛假信息宣傳、開發惡意代碼等犯罪活動。

3月27日,歐洲刑警組織創新實驗室與相關專家組織了一系列研討會,探討犯罪分子會如何濫用 ChatGPT 等大型語言模型,以及它如何協助調查人員的日常工作。會議報告名為“ChatGPT - the impact of Large Language Models on Law Enforcement(ChatGPT - 大型語言模型對執法的影響)”,該報告概述了 ChatGPT 的潛在濫用,并展望了未來可能發生的事情。

歐洲刑警組織的專家們指出,ChatGPT可能為以下三個犯罪領域提供了便利:

1、欺詐和社會工程:ChatGPT高度逼真的文本生成能力使其成為網絡釣魚的有力工具。LLMs語言模式再現能力可用于模仿特定個人或群體的說話風格。

2、假情報:AI擅長快速批量生成真假難辨的聲音文本,用戶能夠借以生成及傳播特定敘述的信息,這使其非常適合宣傳虛假信息。

3、網絡犯罪:只要提供明確的需求,ChatGPT 就能夠使用多種不同的編程語言生成用戶所需的代碼。對于欠缺技術知識的潛在犯罪分子來說,它就是生成惡意代碼的有力工具。

歐洲刑警組織的報告旨在提高人們對LLMs潛在濫用的認識,與人工智能公司開展對話,幫助他們建立更好的保障措施,并促進安全可靠的人工智能系統的發展。報告中特別強調了執法機構需要了解這些技術的積極和消極應用,以便應對未來的挑戰。可以看到,盡管目前AI的發展未臻完美,但其能力與日俱進,任何人都十分有必要提高對其的認知。