top of page

🌟訂閱我們,享受零廣告的閱讀體驗📚

Thanks for submitting!

作家相片micropapa68

🤖 AI克隆技術:模仿獨特個體的音頻、文體或舉止,如語言、文字和面部模仿。


Whatsapp詐騙

**「AI 副本技術 (中文翻譯: AI 克隆技術)」**涉及將人工智慧應用於模仿獨特個體的音頻、文體或舉止。此域包含語言模仿、文字模仿以及視頻或面部模仿。雖然這些進階技能有助於個體化助手、內容形成和數字人物的創建,它們仍潛藏著不端使用的危機及道德探討,比如偽資訊和隱私侵犯。WhatsApp, 作為一個國際性的通信巨頭,歷年來不斷地成為各種欺詐目標。隨著科技的快速轉型,部分詐騙大師已採納AI工具,像是使用深度學習策略來模仿真實的音頻,使其詐騙策略更具說服力。以下揭露了WhatsApp上一些與AI密切相關的詐騙技巧:

  1. 語音模仿: 詐騙大師運用AI儀器來模仿音頻,有可能冒名為熟悉的人。舉例來說,他們或許使用模仿的音頻發送音頻訊息,伪装有迫切的財務需求。

  2. Deepfakes: 儘管在Facebook或Twitter等社群網站更為盛行,但deepfakes(AI所構築的偽裝影片)也在WhatsApp上取得足夠的影響力。例如,詐騙者或許會傳送一段模仿的影片,展示熟人陷入困難或被脅迫的場景,然後利用該片段進行勒索或欺詐。

  3. AI構築的影像: AI具有能力創建真實的影像快照,使得使用者辨識虛擬賬戶變得困難。這些偽賬戶可能被應用於散播詐騙或流傳偽消息。

  4. 自動網路誘騙的聊天機械: AI聊天機器人具備模仿人類交談的特質並可與大批使用者互動。詐騙者可在WhatsApp上啟用此種機器人,模仿銀行、服務供應商或官方客戶支持,接著可能導引用戶分享敏感資料或吸引他們訪問誘騙網站。

  5. 詐騙信息的構建: 詐騙者可利用AI創建具有說服力的個性化詐騙信息,並根據用戶反應調整其方法。這使得欺詐信息顯得更具真實性,使其避免被傳統方法標記為有害的。

防護及安全提醒:

  • 驗證前置於信任: 若您收到出乎意料的要求,特別是與財務或個人資料相關,請選擇另一通訊管道與該人確認。

  • 🚫保持警覺: 若某事件顯得過於美好(例如,贏取了從未參與的彩票),那麼它很可能不真實。

  • 🚫避開不明鏈接: 詐騙者經常分享惡意鏈接。若您懷疑鏈接的出處,最好不要點擊。

  • 🔒 啟動雙重驗證: 這為您的賬戶加入額外的保護層。

  • 🔄 保持更新: 定期檢查您的應用程式以及熟悉最新的詐騙策略。

  • 📵避免接聽未知來電或視頻:當你接聽未知來電或視頻時,詐騙者可以你發出的語音或臉孔,使用AI工具克隆語音或人臉識工具。

最後,請留意,隨著AI技術的升級,詐騙策略將持續演進,但保持警覺和謹慎可大幅減少成為受害者的機率。



相關影響:



189 次查看0 則留言

Comments


bottom of page