我的ai,Snapchat的令人毛骨悚然的AI錯誤使我們想起了聊天機器人,.
Snapchat的“令人毛骨悚然”的AI錯誤提醒我們,聊天機器人不是人. 但是隨著線條的模糊,風險會增加
在最近的Snapchat事件中,該公司將整個事情歸結為“臨時停電”. 我們可能永遠不知道實際發生了什麼。這可能是AI“ hallucinatng”的另一個例子,或者是網絡攻擊的結果,甚至只是操作錯誤.
Snapchat AI
我的ai,. 我的Aiдост社這些訊эLTIMIT.
我的aiamomomouжucis服務函構函→ж栓цLT. 我的ai ai a i qumomous.
lisumin l C listim /πlistim /我的AiaiºVOMIL,我的Ai ai了照. пож執ййй,,помнитео工作! ВQUIMMy ai uisth了我的Ai uistion. 我的Ai ai ai。.
lim a i a i ai ai ai ai ai ai a i a i a i a i acт。 。. чтобыоставитьотзы前. limы可量驅動.
Snapchat AI
.
La Trobe University作為對話AU的成員提供資金.
通過設計,人工智能驅動的(AI)聊天機器人正變得越來越像人類的聊天機器人,以至於我們當中的某些人可能難以區分人類和機器.
本週,Snapchat是我的AI聊天機器人的小故障,並發布了一個看起來像牆壁和天花板的故事,然後才停止響應用戶. .
人工智能素養中的速成課程可能會平息這種困惑. .
從基於規則到自適應聊天機器人
自從Chatgpt於去年年底闖入我們的屏幕以來,許多數字平台已將AI集成到他們的服務中. 即使我在Microsoft Word上起草本文時,該軟件的預測性AI功能也暗示了可能的句子完成.
這種相對較新類型的AI被稱為生成AI,它與其前輩區別於其生成精確,人類且看似有意義的新內容的能力.
生成的AI工具,包括AI圖像生成器和聊天機器人,是建立在大型語言模型(LLMS)上的. .
.
先進的LLM還通過人為反饋進行微調. 這種培訓通常是通過無數小時的廉價人工勞動進行的,這是AI聊天機器人現在看似人類的對話的原因.
Openai的Chatgpt仍然是旗艦生成的AI模型. 它的發布標誌著更簡單的“基於規則”的聊天機器人,例如在線客戶服務中使用的聊天機器人.
類似人類的聊天機器人 用戶而不是 在 . 一項研究發現,聊天機器人的擬人化導致參與度增加,隨著時間的流逝,這可能會變成心理依賴性. 另一項涉及壓力參與者的研究發現,類似人類的聊天機器人更有可能被認為是有能力的,因此更有可能有助於減輕參與者的壓力.
這些聊天機器人還可以有效實現各種環境中的組織目標,包括零售,教育,工作場所和醫療機構.
.
儘管Google自己的AI安全專家警告說,這仍然是用戶可能會過於依賴AI,並且如果從中獲得人生建議,則可能會經歷“健康和福祉”和“失去代理”.
朋友或敵人 – 或只是機器人?
在最近的Snapchat事件中,該公司將整個事情歸結為“臨時停電”. 我們可能永遠不知道實際發生了什麼。這可能是AI“ hallucinatng”的另一個例子,或者是網絡攻擊的結果,甚至只是操作錯誤.
. 這是由於開發人員缺乏透明度以及公眾缺乏基本理解而加劇了這一點.
.
今年早些時候,比利時男子的自殺歸因於他與氣候無所作為和地球未來的聊天機器人進行的對話. .
聊天機器人可能對我們中更脆弱的人,尤其是對患有心理狀況的人特別有害.
一個新的怪異山谷?
您可能已經聽說過“不可思議的山谷”效應. 幾乎 看起來很人性.
似乎在我們與類似人類的聊天機器人的互動中出現了類似的經歷. 輕微的碎片會抬起脖子後部的頭髮.
一種解決方案可能是失去人類的優勢,並恢復到直接,客觀和事實的聊天機器人. 但這是以犧牲參與和創新為代價的.
教育和透明度是關鍵
即使是高級AI聊天機器人的開發人員,也常常無法解釋他們的工作方式. 然而,在某些方面(就商業實體而言)的好處大於風險.
Generative AI已經證明了其在生產力,醫療保健,教育甚至社會公平等大型項目中的有用性. 不太可能消失. 那麼我們如何使其對我們有用?
自2018年以來,政府和組織一直在大力推動應對AI的風險. 但是,將負責任的標準和法規應用於比其他任何其他技術更“人類”的技術帶來的挑戰.
目前,澳大利亞企業沒有法律要求披露聊天機器人的使用. 在美國,加利福尼亞提出了一項“機器人法案”,這需要這一要求,但是法律專家在其中戳了漏洞 – 在撰寫本文時尚未執行該法案.
此外,Chatgpt和類似的聊天機器人被公開為“研究預覽”. 這意味著他們經常在其原型性質上進行多次披露,而負責使用的責任屬於用戶.
《歐盟的AI法案》是世界上第一個對AI的全面法規,已將適度的法規和教育確定為前進的道路 – 因為過多的監管可能阻止創新. 與數字素養類似,應在學校,大學和組織中要求AI掃盲,也應自由地為公眾訪問.
- 人工智能(AI)
- 技術
- 恐怖谷
- Snapchat
- 聊天機器人
- AI模型
- 大型語言模型
- chatgpt
- 人工智能倫理
您使用Snapchat的AI聊天機器人嗎? 這是它從您那裡獲取的數據
4月,Snap製作了AI驅動的聊天機器人My AI,可用於Snapchat用戶. 該公司表示,超過1.5億用戶與聊天機器人進行了交談. Snap說,它的AI聊天機器人配備了比Chatgpt更多的護欄,這應該使年輕Snapchatters更安全.
根據Statista的說法,大約20%的全球Snapchat用戶在13至17歲之間. 但是在與機器人的一些實驗性聊天中,用戶發現Snapchat的機器人可以解釋如何從事未成年物質使用和性活動.
當Snapchatters首次開始與我的AI進行實驗交談時,許多人對聊天機器人的訪問感到好奇. 當詢問我的AI是否有用戶的位置時,它會迅速否認可以訪問地理位置數據.
但是,如果用戶在其地區要求提供餐廳推薦,我的人工智能可以向他們提供,證明該機器人確實可以訪問Snapchatters的位置. 人們去Twitter表達了他們對我的AI關心的人,並開始對機器人可以訪問的用戶數據感到好奇.
因此,我的AI收集了什麼數據,SNAP對此有什麼作用?
地點
如果您允許Snapchat訪問您的位置,我的AI可以訪問您的位置. Snap說我的AI不會從您那裡收集任何新的位置數據,只從您提供給Snapchat的數據中提取.
一些用戶啟用了一個名為Ghost Mode的Snapchat功能,該功能使您可以從朋友中隱藏您的位置並將您從快照地圖中刪除. 但是,幽靈模式不能確保我的AI無法訪問您的位置. Snap說,即使您授予您授予Snapchat的位置跟踪許可,我的AI也可以訪問您的位置.
對話
SNAP將您與我的AI進行對話,直到您手動刪除它們為止,但與我的AI的對話數據最多可能需要30天. SNAP使用您與我的AI的對話來訓練AI模型,並用個性化廣告更好地針對您.
Snapchat的隱私政策指出,所有收件人都會從Snapchat服務器中刪除所有快照. 但是SNAP明確區分了發送給我的AI的聊天不遵循此準則,並且只有在請求Snapchat刪除它們時才會刪除. 應該假設SNAP保留您發送給我的AI的任何音頻或照片,並且只有在您自己執行的情況下才能刪除.