Deepfake檢測公司Pindrop獲得1億美元貸款以擴展其產品

深偽造技術的威脅正在增長,因為創建它們的人工智能工具變得普遍可用。根據驗證提供商Sumsub的數據,從2023年到2024年,全球的深偽造技術增長了245%,其中一部分是由即將到來的選舉周期帶動的。這也影響了企業界; 最近的一項Business.com調查發現,有10%的公司遭受過深偽造技術輔助詐騙,例如克隆聲音。

這一趨勢不出所料地成為了市場上提供防範深偽造技術的公司以及生產深偽造技術的技術的機會。其中一家公司Pindrop於週三宣布,已獲得了來自Hercules Capital的1億美元、為期五年的貸款。公司首席執行官Vijay Balasubramaniyan表示,這筆款項將用於產品開發和招聘。

“隨著生成式人工智能的進步,特別是聲音克隆已經成為一個強有力的工具,”Balasubramaniyan告訴TechCrunch。“現在每個呼叫中心都需要利用AI檢測技術進行深偽造檢測,以在詐騙分子前走一步。”

Pindrop開發了對抗深偽造技術和多因素身份驗證產品,針對銀行、金融和相關行業的企業。該公司聲稱其工具可以識別接觸中心的來電者,並且比競爭對手的解決方案具有更高的準確性。

“Pindrop利用2000萬句話的數據集,包括合成的和真實的句子,來訓練AI模型,以區分真實的人類聲音和合成生成的聲音,”Balasubramaniyan說道。“我們還訓練了超過330個文本轉語音(TTS)模型,以幫助識別用於創建深偽造音頻的TTS模型。”

深偽造檢測模型中常見的問題是偏見。許多音訊模型往往傾向於識別西方、美國的聲音,對不同口音和方言表現不佳,這可能導致檢測器會將合法的聲音誤分類為深偽造技術。

關於合成訓練數據(由AI模型自己生成的訓練數據)是否有助於減輕或加劇偏見存在爭議。值得一提的是,Balasubramaniyan認為前者,並聲稱Pindrop的語音認證產品專注於聲音的“聲學和頻譜時間特徵”,而不是發音或語言。

“基於人工智能的語音識別系統往往對音調、口音、方言差異顯示出偏見的結果,這可能具有種族涵義,”Balasubramaniyan表示。“這些偏見源於用於訓練系統的數據的同質性,可能缺乏各種不同種族、種族、性別或其他差異的代表性,從而限制了人工智能系統訓練的數據的多樣性。”

當被問及為什麼這次Pindrop選擇了債務而不是股本時,Balasubramaniyan表示,這是一個“有吸引力的選擇”,可以“有效地籌集成長資本”,而不會稀釋Pindrop的股權。(這是一種常見的策略。)

“隨著生成式人工智能的出現,我們正在全球看到對我們解決方案的巨大需求,並計劃擴展到一些因深偽造技術威脅日益加劇的國家,”Balasubramaniyan表示。“Pindrop致力於幫助公司通過詐騙預防,身份驗證和活體性解決方案保護自己和消費者免受不斷增長的詐騙和深偽造技術的威脅。”