<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    再見!谷歌翻譯……

    VSole2022-10-11 17:50:53

    就在這兩天,有網友突然發現谷歌翻譯用不了。

    (雖然谷歌退環境了,但翻譯一直是能用的)

    具體來說,本應提供翻譯功能的translate.google.cn,被替換成了一個所謂的「搜索頁面」。

    就是長下面這樣的:

    那么問題來了,谷歌不是早就退出了么,哪兒來的搜索?

    沒錯,因為這就是個「截圖」而已……

    不管你點擊哪里,都會直接被重新定向到谷歌翻譯的香港域名——translate.google.hk。

    顯然,這個對于大陸的用戶來說,是無法訪問的。

    于是,不管是谷歌Chrome內置的翻譯功能,還是其他調用了這一接口的軟件,比如KOReader(一種文檔查看器),都祭了……

    順便一提,谷歌2010年退出中國內地市場。

    時任工業和信息化部部長李毅中同年3月12日在回應「谷歌退出中國事件」時說,中國的互聯網是開放的,進入中國市場就必須遵守中國法律。

    此前曾有報道稱,谷歌在2018年和2019年都曾嘗試過在中國大陸重新啟動搜索服務。

    作為「蜻蜓計劃」的一部分,該項目將對搜索結果進行審查,并記錄用戶的位置以及他們的互聯網瀏覽歷史。

    但據The Intercept報道,在經歷了由內部隱私團隊牽頭的沖突之后,谷歌徹底放棄了這一計劃。

    曾陷「辱華」風波

    去年11月,有網友發現谷歌翻譯會將一些艾滋病相關的詞翻譯為中國侮辱性詞匯,引發對谷歌翻譯的反感和憤怒。

    在英翻中的英文對話框輸入「新聞」,「傳播」等詞匯,中文部分顯示的仍然是「新聞」和「傳播」。

    但在英文對話框輸入「艾滋病毒」等類似詞匯,中文翻譯就會顯示惡毒攻擊中國的詞匯。

    不過,谷歌很快便在微博上表示,問題已經得到了解決,并解釋稱是由「模式」引發的。

    也就是說訓練語料要背大鍋,如果訓練語料存在夾帶私貨的情況,那翻譯結果也不會準確。

    對此,「NeX8yte」指出,國際互聯網上中文的語料大部分并不掌握在我們自己手里,而且此類結果很可能是經過了中介語言,從而也就放大了錯誤。

    銀藍劍6H17也表示,這種結果的出現一方面是機器學習用了臟語料,讓部分中文輸入也可以輸出翻譯結果,另外一方面就是模型到API的調用階段管理出現了真空。

    「曹哲的雜貨鋪」認為這是有意制造的:

    為什么恰好會有人找到谷歌翻譯,又恰好翻譯這些并不常用的詞語,又雙叒叕恰好把忽略系統建議硬把源語言設成「英文」呢?
    輸入一段中文,然后硬告訴程序這是英文,讓他把這玩意「翻譯」成中文,其直接后果無非就是程序被你玩炸了,程序會認為這條「英文」它不會翻譯,這時候只要有心人把這個用漢語寫成的「冷門英文單詞」在翻譯社區提交翻譯建議,就很容易達成這種結果。

    參考資料:

    https://tcrn.ch/3E6HC3b

    谷歌語言翻譯
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    近年來機器學習的快速發展使人工智能的潛在能力顯而易見。在十幾次采訪過程中,研究人員、投資者、政府官員和網絡安全高管絕大多數表示,他們正以懷疑和興奮的心情關注生成式人工智能的防御潛力。他們的懷疑源于一種懷疑,即營銷炒作歪曲了該技術的實際功能,并且認為AI甚至可能引入一組新的、人們知之甚少的安全漏洞。但這種懷疑被真正的興奮所掩蓋和緩和。這在很大程度上是由于行業領導者OpenAI發布其生成AI產品的積極性。
    模型允許有效理解自然語言,并使用潛在結果的概率分布。我們可以從以下兩方面展開來看:1、ChatGPT 帶來的網絡安全新威脅首先,從開展網絡攻擊的角度來看,ChatGPT 這類生成式人工智能是偏向于威脅行為者的。其次,目前已經看到有威脅行為者正在使用 ChatGPT 來開發惡意軟件。雖然 ChatGPT 的代碼編寫能力的質量結果好壞參半,但專門從事代碼開發的生成式 AI 可以極大地加速惡意軟件的開發速度。再者,ChatGPT 大大降低了威脅參與者基于技能的進入成本。
    雖然這些攻擊類型主要用于繞過內容過濾器,但安全研究人員警告,急于推出生成式AI系統帶來了數據被盜和網絡犯罪分子在互聯網上造成破壞的可能性。顧名思義,這可以避開OpenAI規定ChatGPT不得用于生成非法或有害材料的政策。運行Claude AI系統的Anthropic表示,這種破解“有時對Claude有效”,它在不斷改進其模型。
    對決策者和從業者來說,務實的做法是細致了解哪些任務可以從機器學習中受益,哪些任務不能。
    再見!翻譯……
    2022-10-11 17:50:53
    順便一提,2010年退出中國內地市場。此前曾有報道稱,在2018年和2019年都曾嘗試過在中國大陸重新啟動搜索服務。但據The Intercept報道,在經歷了由內部隱私團隊牽頭的沖突之后,徹底放棄了這一計劃。曾陷「辱華」風波去年11月,有網友發現翻譯會將一些艾滋病相關的詞翻譯為中國侮辱性詞匯,引發對翻譯的反感和憤怒。不過,很快便在微博上表示,問題已經得到了解決,并解釋稱是由「模式」引發的。
    研究人員懷疑,涉案人員可能是商業間諜軟件供應商 Variston 的客戶、合作伙伴或其他密切關聯方。3 月 28 日,拜登政府發布了一項行政命令,限制聯邦政府使用商業監控工具,但的調查結果表明,這些努力并未阻止商業間諜軟件的出現。必須加強有關商業間諜軟件生產和使用的法規,以確保它們不會被用于侵犯個人基本權利的目標。
    LLM和其他生成式工具為各種應用帶來了巨大的機會,業界紛紛投身部署此類系統。這會導致多種風險,最好通過仔細保護自身數據集來解決,而不是將自己的數據塞進ML模型還公開發布這一模型。敏感數據和機密信息保護已然是項艱巨的任務,如果我們還有意用機密信息訓練ML系統并面向全世界發布,后果可想而知。
    第 2 章 shell權限提升,簡稱提權。它用于執行各種網絡交互,包括在枚舉期間抓取 banner 等。但它們默認情況下很少安裝 Socat。模塊與 socat 和 netcat 一樣,提供了用于接收反彈 shell 的功能。雖然 msfvenom 可以生成除 reverse 和 bind shell 之外的 payload,但這不是本文的重點。一般情況下,反向 shell 更容易執行和調試。以下會給出反彈 shell 和 正向 shell 的示例,請注意它們間的區別。這里重要的是我們正在攻擊機上監聽,并收到了來自目標的連接。請注意,這并非特定于 Windows。
    就在幾個月前,ChatGPT和其他基于大型語言模型(LLM)的聊天機器人還很新奇。普通用戶喜歡用它們以著名藝術家的風格創作詩歌和歌詞;研究人員激烈討論著要炸毀數據中心,以防止超級人工智能發動世界末日;而安全專家則成功繞過聊天機器人的安全控制機制,給它們發布竊聽電話和劫車的指令。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类