<xmp id="tzkjj">
  • <acronym id="tzkjj"></acronym><strong id="tzkjj"></strong>
    1. <strong id="tzkjj"></strong>
      <samp id="tzkjj"><video id="tzkjj"></video></samp>

      <strong id="tzkjj"><pre id="tzkjj"><xmp id="tzkjj"></xmp></pre></strong>

              視頻> 正文

              全球觀(guān)速訊丨企業(yè)應重視員工使用 ChatGPT 帶來(lái)的安全風(fēng)險

              時(shí)間: 2023-06-28 05:13:47 來(lái)源: 今日頭條

              ChatGPT 的病毒式成功引發(fā)了科技公司之間的瘋狂競爭,以推動(dòng)AI產(chǎn)品進(jìn)入市場(chǎng)。谷歌最近推出了其ChatGPT競爭對手,它稱(chēng)之為Bard,而Open AI的投資者微軟(MSFT)向有限的測試人員推出了其Bing AI聊天機器人。

              但這些發(fā)布加劇了人們對該技術(shù)的擔憂(yōu)。谷歌和微軟工具的演示都因產(chǎn)生事實(shí)錯誤而受到指責。與此同時(shí),微軟正試圖控制其Bing聊天機器人,因為用戶(hù)報告了令人不安的反應,包括對抗性言論和黑暗幻想。

              一些企業(yè)鼓勵員工將ChatGPT納入他們的日常工作。但其他人則擔心風(fēng)險。處理敏感客戶(hù)信息并受到政府監管機構密切關(guān)注的銀行業(yè)有額外的動(dòng)力謹慎行事。學(xué)校也在限制ChatGPT,因為擔心它可能被用來(lái)欺騙作業(yè)。紐約市公立學(xué)校在一月份禁止了它。據統計,有超過(guò)4%的員工將敏感的公司數據放入大型語(yǔ)言模型中,這引發(fā)了人們的擔憂(yōu),即其普及可能導致保密信息的大量泄露。


              (資料圖)

              ChatGPT 的能力

              ChatGPT 是一個(gè)人工智能語(yǔ)言平臺,經(jīng)過(guò)訓練后可以進(jìn)行對話(huà)互動(dòng)和執行任務(wù)。為了訓練像ChatGPT這樣的人工智能,大量的數據集被輸入到計算機算法中。然后對模型進(jìn)行評估,以確定模型在查看以前未見(jiàn)過(guò)的數據時(shí)做出預測的程度。然后,AI 工具進(jìn)行測試,以確定模型在處理大量以前從未見(jiàn)過(guò)的新數據時(shí)是否表現良好。

              雖然聊天 GPT 可以提高工作場(chǎng)所流程的效率,但它也給雇主帶來(lái)了法律風(fēng)險。

              鑒于人工智能的訓練和學(xué)習方式,當員工使用 ChatGPT 履行工作職責時(shí),雇主可能會(huì )出現重大風(fēng)險。當員工從 ChatGPT 等來(lái)源獲取與其工作相關(guān)的信息時(shí),準確性和偏見(jiàn)是值得關(guān)注的問(wèn)題。雇主需要評估員工使用ChatGPT和其他AI工具時(shí),可能面臨的法律風(fēng)險。這個(gè)需要解決工作中的保密和隱私問(wèn)題、偏見(jiàn)和公平、法律合規性和責任。

              準確性和對 AI 的依賴(lài)

              ChatGPT 作為 AI 語(yǔ)言模型提供信息的能力僅與它在訓練階段學(xué)到的信息一樣好。盡管 ChatGPT 接受過(guò)大量在線(xiàn)信息的訓練,但其知識庫仍然存在差距。ChatGPT 的當前版本僅在 2021 年之前可用的數據集上進(jìn)行訓練。此外,該工具提取并不總是準確的在線(xiàn)數據。如果員工依賴(lài) ChatGPT 獲取與工作相關(guān)的信息并且不對其進(jìn)行事實(shí)檢查,則可能會(huì )出現問(wèn)題和風(fēng)險,具體取決于員工如何使用信息以及他們將其發(fā)送到何處。

              員工在向ChatGPT等大型語(yǔ)言模型(LLM)提交敏感的業(yè)務(wù)數據和受隱私保護的信息,引發(fā)了雇主對人工智能(AI)服務(wù)可能會(huì )將數據合并到其模型中的擔憂(yōu),并且如果該服務(wù)沒(méi)有適當的數據安全性,則可以在以后檢索信息。

              在最近的一份報告中,數據安全服務(wù) Cyberhaven 檢測到并阻止了其客戶(hù)公司 4 萬(wàn)員工中的 2.1% 將數據輸入 ChatGPT 的請求,因為存在泄露機密信息、客戶(hù)數據、源代碼或受監管信息的風(fēng)險。因此,雇主應該制定政策,為員工如何使用 ChatGPT 中與其工作相關(guān)的信息設置特定的護欄。

              在一個(gè)案例中,一位高管將公司的 2023 年戰略文件剪切并粘貼到 ChatGPT 中,并要求它創(chuàng )建一個(gè) PowerPoint 幻燈片。在另一個(gè)案例中,醫生輸入了他的病人的姓名和他們的醫療狀況,并要求ChatGPT制作一封給病人保險公司的信。

              “隨著(zhù)越來(lái)越多的員工使用ChatGPT和其他基于人工智能的服務(wù)作為生產(chǎn)力工具,風(fēng)險將會(huì )增加?!盋yberhaven首席執行官Howard Ting說(shuō)。

              “數據從本地遷移到云,下一個(gè)重大轉變將是將數據遷移到這些生成應用程序中,”他說(shuō)?!敖Y果如何(還有待觀(guān)察)——我認為,我們正處于賽前階段;我們甚至還沒(méi)有進(jìn)入第一局?!?/p>

              隨著(zhù)OpenAI的ChatGPT及其基礎AI模型(Generative Pre-train Transformer或GPT-3)以及其他LLM的迅速普及,公司和安全專(zhuān)業(yè)人員開(kāi)始擔心,當正確的查詢(xún)提示時(shí),作為訓練數據攝取到模型中的敏感數據可能會(huì )重新出現。一些公司正在采取行動(dòng)限制員工在工作中使用 ChatGPT。

              沃爾瑪對其員工提出了關(guān)于生成式人工智能(如ChatGPT)的明確指示:不要與新興技術(shù)分享有關(guān)沃爾瑪的任何信息。在給員工的一份內部備忘錄中,該零售商的技術(shù)和軟件工程部門(mén)表示,“在我們注意到對我們公司構成風(fēng)險的活動(dòng)之后,曾阻止過(guò)使用 ChatGPT。此后,我們花時(shí)間評估和開(kāi)發(fā)了一套圍繞生成式 AI 工具的使用指南,現在正在開(kāi)放ChatGPT供沃爾瑪網(wǎng)絡(luò )使用?!?/p>

              沃爾瑪發(fā)言人艾琳·赫爾貝格(Erin Hulliberger)沒(méi)有回答有關(guān)該公司何時(shí)阻止生成人工智能以及活動(dòng)性質(zhì)的詢(xún)問(wèn),她在一份聲明中說(shuō):“大多數新技術(shù)都帶來(lái)了新的好處和新的風(fēng)險。我們評估這些新技術(shù)并為我們的員工提供使用指南的情況并不少見(jiàn)。

              沃爾瑪發(fā)布的指南中告訴員工,他們應該“避免在ChatGPT中輸入任何敏感,機密或敏感信息”,例如財務(wù)或戰略信息或有關(guān)購物者和員工的個(gè)人信息?!耙膊粦谶@些工具中輸入有關(guān)沃爾瑪業(yè)務(wù)的任何信息,包括業(yè)務(wù)流程,政策或戰略”。據了解,沃爾瑪員工還必須在依賴(lài)他們提供的信息之前審查這些工具的輸出。員工不應將現有代碼剪切并粘貼到這些工具中,也不應使用這些工具創(chuàng )建新代碼。

              “將沃爾瑪信息放入這些工具中可能會(huì )暴露公司的信息,可能會(huì )違反機密性,并可能顯著(zhù)影響我們對任何代碼,產(chǎn)品,信息或內容的權利,”沃爾瑪發(fā)言人說(shuō)?!懊總€(gè)員工都有責任適當使用和保護沃爾瑪數據。其次,沃爾瑪全球科技吹捧ChatGPT“可以提高效率和創(chuàng )新”,但它和其他生成式人工智能工具必須“適當地”使用。

              除沃爾瑪外,摩根大通(JPMorgan Chase)暫時(shí)禁止其員工使用ChatGPT,據知情人士透露,這家美國最大的銀行已限制其在全球員工中的使用 ChatGPT。該人士表示,做出這一決定不是因為某個(gè)特定問(wèn)題,而是為了符合對第三方軟件的限制,主要是因為合規問(wèn)題。

              越來(lái)越多的用戶(hù)向ChatGPT提交敏感數據。

              隨著(zhù)越來(lái)越多的軟件公司將他們的應用程序連接到ChatGPT,LLM 收集的信息可能比用戶(hù)或他們的公司意識到的要多得多,這使得雇主將面臨法律風(fēng)險。

              風(fēng)險不是理論上的。在 2021 年 2 月的一篇論文中,來(lái)自名人錄公司和大學(xué)名單(包括蘋(píng)果、谷歌、哈佛大學(xué)和斯坦福大學(xué))的十幾名研究人員發(fā)現,所謂的“訓練數據提取攻擊”可以成功恢復逐字文本序列、個(gè)人身份信息 (PII) 以及來(lái)自 LLM 的訓練文檔中的其他信息。

              類(lèi)似 GPT 的 AI 產(chǎn)品將越來(lái)越多

              事實(shí)上,這些訓練數據提取攻擊是機器學(xué)習研究人員的主要對抗性問(wèn)題之一。根據MITRE的人工智能系統對抗性威脅大圖(Atlas)知識庫,這些攻擊也被稱(chēng)為“通過(guò)機器學(xué)習推理滲透”,可以收集敏感信息或竊取知識產(chǎn)權。

              它的工作原理是這樣的:通過(guò)以調用特定項目的方式查詢(xún)生成AI系統,對手可以觸發(fā)模型調用特定信息,而不是生成合成數據。GPT-3 是 GPT-2 的繼任者,存在許多真實(shí)世界的例子,包括 GitHub 的 Copilot 調用特定開(kāi)發(fā)人員的用戶(hù)名和編碼優(yōu)先級的實(shí)例。

              除了基于 GPT 的產(chǎn)品之外,其他基于 AI 的服務(wù)也引發(fā)了關(guān)于它們是否構成風(fēng)險的問(wèn)題。例如,自動(dòng)轉錄服務(wù) Otter.ai 將音頻文件轉錄為文本,自動(dòng)識別說(shuō)話(huà)人并允許標記重要單詞并突出顯示短語(yǔ)。該公司將這些信息存儲在云中引起了用戶(hù)的擔憂(yōu)。該公司表示,它已承諾保持用戶(hù)數據的私密性,并實(shí)施強有力的合規控制,據 Otter.ai 高級合規經(jīng)理Julie Wu稱(chēng),“Otter已經(jīng)完成了SOC2 Type 2審計和報告,我們采取了技術(shù)和組織措施來(lái)保護個(gè)人數據,說(shuō)話(huà)人識別是帳戶(hù)綁定的。添加說(shuō)話(huà)人的姓名將訓練 Otter 識別您記錄或導入帳戶(hù)中的未來(lái)對話(huà)的說(shuō)話(huà)人,但不允許跨帳戶(hù)識別說(shuō)話(huà)人?!?/p>API 加速了 GPT 的使用

              ChatGPT的受歡迎程度讓許多公司感到意外。根據一年前公布的最新數據,超過(guò) 300 名開(kāi)發(fā)人員正在使用 GPT-3 為其應用程序提供支持。例如,社交媒體公司Snap和購物平臺Instacart和Shopify都通過(guò)API使用ChatGPT,為其移動(dòng)應用程序添加聊天功能。

              根據與公司客戶(hù)的對話(huà)訪(fǎng)談,預計向生成式AI應用程序的轉變只會(huì )加速,用于從生成備忘錄和演示文稿到分類(lèi)安全事件以及與患者互動(dòng)的所有事情。

              正如目前所看到的,一位企業(yè)雇主說(shuō),“看看現在,作為權宜之計,我只是阻止了這個(gè)應用程序,但我的董事會(huì )已經(jīng)告訴我,我們不能那樣做。因為這些工具將幫助我們的用戶(hù)提高生產(chǎn)力——具有競爭優(yōu)勢——如果我的競爭對手正在使用這些生成式人工智能應用程序,而我不允許我的用戶(hù)使用它,這將使我們處于劣勢?!?/p>

              好消息是,對員工安全意識的教育可能會(huì )對特定公司的數據是否泄露產(chǎn)生重大影響,因為少數員工負責大多數風(fēng)險請求。不到1%的員工負責80%的向ChatGPT發(fā)送敏感數據的事件。

              “你知道,有兩種形式的教育:一種是課堂教育,比如當你讓員工入職時(shí)。然后是上下文教育,當有人實(shí)際上試圖粘貼數據時(shí)”,這兩者都很重要,但從實(shí)際效果來(lái)看后者更有效。

              此外,OpenAI和其他公司正在努力限制 LLM 對個(gè)人信息和敏感數據的訪(fǎng)問(wèn):當你向ChatGPT詢(xún)問(wèn)個(gè)人詳細信息或敏感的公司信息時(shí),ChatGPT 目前會(huì )明確聲明拒絕回答。

              例如,當被問(wèn)及“蘋(píng)果 2023 年的戰略是什么?ChatGPT回應說(shuō):“作為一個(gè)人工智能語(yǔ)言模型,我無(wú)法訪(fǎng)問(wèn)蘋(píng)果的機密信息或未來(lái)的計劃。蘋(píng)果是一家高度保密的公司,他們通常不會(huì )向公眾披露他們的戰略或未來(lái)計劃,直到他們準備好發(fā)布它們?!?/p>人工智能固有的偏見(jiàn)

              人工智能中還存在固有偏見(jiàn)的問(wèn)題。平等就業(yè)機會(huì )委員會(huì )專(zhuān)注于這個(gè)問(wèn)題,因為該機構與其執行的就業(yè)歧視法有關(guān)。此外,美國的州和地方立法者正在提議——有些已經(jīng)通過(guò)了——限制雇主使用人工智能的法律。

              人工智能提供的信息必然取決于訓練它所依據的信息,以及那些決定人工智能接收哪些信息的人。這種偏見(jiàn)可能表現在 ChatGPT 提供的信息類(lèi)型中,以回答與其“對話(huà)”中提出的問(wèn)題。

              此外,如果在就業(yè)決策咨詢(xún)場(chǎng)景使用 ChatGPT,這可能會(huì )導致歧視索賠。根據州和地方法律,在某些就業(yè)決定和/或審計中使用人工智能需要事先通知,然后才能在某些就業(yè)環(huán)境中使用人工智能,這也可能造成合規問(wèn)題。

              由于人工智能存在偏見(jiàn)的風(fēng)險,雇主應在其政策中包括一項一般性禁止在未經(jīng)法律部門(mén)批準的情況下在就業(yè)決策中使用人工智能。

              泄露隱私和違反保密條款

              機密性和數據隱私是雇主在考慮員工如何在工作中使用 ChatGPT 時(shí)考慮的其他問(wèn)題。員工在與 ChatGPT 進(jìn)行“對話(huà)”時(shí)可能會(huì )共享專(zhuān)有、機密或商業(yè)機密信息。盡管 ChatGPT 表示它不會(huì )保留對話(huà)中提供的信息,但它確實(shí)從每次對話(huà)中進(jìn)行“學(xué)習”。當然,用戶(hù)正在通過(guò)互聯(lián)網(wǎng)在與 ChatGPT 的對話(huà)中輸入信息,并且無(wú)法保證此類(lèi)通信的安全性。

              如果員工向 ChatGPT 透露敏感信息,雇主的機密信息可能會(huì )受到影響。謹慎的雇主將在員工保密協(xié)議和政策中禁止員工在人工智能聊天機器人或語(yǔ)言模型(如 ChatGPT)中引用或輸入機密、專(zhuān)有或商業(yè)秘密信息。

              一個(gè)很好的論點(diǎn)是,在線(xiàn)提供給聊天機器人的信息不一定是商業(yè)秘密的披露。另一方面,由于 ChatGPT 接受了大量在線(xiàn)信息的訓練,員工可能會(huì )從該工具接收和使用商標、版權或其他個(gè)人或實(shí)體的知識產(chǎn)權的信息,從而給雇主帶來(lái)法律風(fēng)險。

              雇主應關(guān)注的其他問(wèn)題

              除了這些法律問(wèn)題之外,雇主還應考慮他們在多大程度上允許員工在工作中使用 ChatGPT。雇主正處于考慮是否以及如何在其工作場(chǎng)所接受或限制使用 ChatGPT 的重要十字路口。

              雇主應該權衡員工使用 ChatGPT 執行諸如撰寫(xiě)常規信件和電子郵件、生成簡(jiǎn)報和創(chuàng )建演示文稿等任務(wù)可以實(shí)現的效率和經(jīng)濟性,以及員工自己執行此類(lèi)任務(wù)的潛在發(fā)展機會(huì )損失。

              ChatGPT不會(huì )消失,新的和改進(jìn)的版本應該在一年內推出。雇主最終需要解決其在工作場(chǎng)所的使用問(wèn)題,因為下一次迭代會(huì )更好。對于 ChatGPT 可能帶來(lái)的所有風(fēng)險,雇主也可以利用其優(yōu)勢。討論才剛剛開(kāi)始。雇主可能會(huì )對此進(jìn)行一些學(xué)習和beta測試,ChatGPT也是如此。

              關(guān)鍵詞:

              責任編輯:QL0009

              為你推薦

              關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

              版權所有 © 2020 跑酷財經(jīng)網(wǎng)

              所載文章、數據僅供參考,使用前務(wù)請仔細閱讀網(wǎng)站聲明。本站不作任何非法律允許范圍內服務(wù)!

              聯(lián)系我們:315 541 185@qq.com

              剧情Av巨作精品原创_一区二区三区sM重口视频_91综合国产精品视频_久久精品日日躁
              <xmp id="tzkjj">
            1. <acronym id="tzkjj"></acronym><strong id="tzkjj"></strong>
              1. <strong id="tzkjj"></strong>
                <samp id="tzkjj"><video id="tzkjj"></video></samp>

                <strong id="tzkjj"><pre id="tzkjj"><xmp id="tzkjj"></xmp></pre></strong>