如果你曾在Zoom電話會議中看到Otter.ai虛擬助手出現在房間里,請知曉它們在聽你說話,并記錄下你所說的一切。在人工智能和混合或遠程辦公模式時代,這種做法在某種程度上已變得相當普遍,但令人擔憂的是,許多用戶并不了解這項技術的全部功能。
如果你不知道如何選擇正確的設置,Otter.ai等虛擬助手會向所有與會者發送錄音和文字記錄,即使有嘉賓提前離開了會議。這意味著,如果你說同事的壞話、討論機密信息或分享卑劣的商業行為,人工智能會識別出來,而且會出賣你。
研究人員兼工程師亞歷克斯·比爾澤里安(Alex Bilzerian)最近就遇到了這種情況。他與一家風險投資公司進行了一次Zoom電話會議,Otter.ai被用來記錄電話會議內容。比爾澤里安上周在X上的一篇帖子中寫道,會議結束后,Otter.ai自動將記錄通過電子郵件發送給他,其中包括“他們之后幾個小時的私人談話:他們討論了關于業務的私密和機密細節”。Otter.ai成立于2016年,提供錄音和轉錄服務,可以通過Zoom連接,也可以在虛擬會議或面對面會議時手動連接。
比爾澤里安告訴《華盛頓郵報》,記錄顯示,在他退出會議后,投資者討論了他們公司的“戰略失敗和虛假指標”。雖然比爾澤里安提醒投資者注意此事,但在他們“深表歉意”后,他仍然決定終止交易。
這只是新興人工智能技術被用戶誤解的眾多例子之一。針對比爾澤里安在X上發布的帖子,其他用戶也報告了類似的情況。
另一位用戶迪恩·朱利葉斯(Dean Julius)在X上寫道:“今天,我妻子參加了一次工作相關撥款會議,[整個]會議都被記錄下來并做了注釋。有些人留下來私下討論會議內容。但虛擬助手一直在記錄會議內容,然后都發給大家了。無比尷尬。”
其他用戶指出,隨著虛擬治療和遠程醫療會議變得更加突出,這可能成為醫療保健行業的一個主要問題。
醫療軟件公司IT medical的醫生兼醫療顧問丹妮爾·凱爾瓦斯(Danielle Kelvas)在接受《財富》雜志采訪時表示:“你可以想象,這將成為醫療保健領域一個非常嚴重的問題,涉及到受保護的健康信息。醫療服務提供商對隱私的擔憂是可以理解的。例如,無論是人工智能書寫設備還是人工智能超聲設備,我們作為醫生都會問,這些信息流向哪里?”
不過,Otter.ai堅持認為,用戶可以防止這些尷尬或令人難堪的事件發生。
Otter.ai發言人告訴《財富》雜志:“用戶完全可以控制自己的設置,我們努力讓Otter盡可能直觀。雖然通知功能是內置的,但我們也強烈建議在會議和對話中使用Otter時繼續征求用戶同意,并說明你使用Otter的情況,以實現完全透明。”該發言人還建議訪問公司的幫助中心,查看所有設置和偏好。
人工智能虛擬助手的力量
作為提高工作效率和記錄重要對話的一種手段,越來越多的企業開始在工作流程中使用人工智能功能。雖然人工智能無疑可以減少抄錄并將其發送給利益相關者的繁瑣做法,但人工智能仍不具備與人類相同的感知能力。
數據咨詢公司Affinity Reply的高級顧問蘇克·索哈爾(Sukh Sohal)在接受《財富》雜志采訪時表示:“由于人工智能的自動化行為和缺乏判斷力,它存在泄露‘工作機密’的風險。我有客戶對非計劃中的信息共享表示擔憂。如果企業在采用人工智能工具時沒有充分了解其設置或影響,例如在與會者離開會議后繼續自動轉錄,就會出現這種情況。”
但歸根結底,人類才是這項技術的推動者。
計算技術行業協會(CompTIA)戰略高級副總裁漢娜·約翰遜(Hannah Johnson)在接受《財富》雜志采訪時表示:“雖然人工智能正在幫助我們更快、更智能地工作,但我們需要了解自己正在使用的工具。我們不能忘記,情商和有效溝通同樣至關重要。技術可能在不斷發展,但人類的技能仍然是維系這一切的粘合劑。”
其他人工智能助手,如微軟(Microsoft)Copilot,工作原理與Otter.ai類似,可以記錄和轉錄會議內容。不過,微軟的一位發言人告訴《財富》雜志,Coiplot也有一些保障措施:用戶要么必須親自參加會議,要么必須征得組織者的同意,才能共享會議記錄或文稿。
微軟發言人在一份聲明中表示:“在Teams會議中,所有與會者都會看到會議正在被記錄或轉錄的通知。”此外,管理員還可以啟用一項設置,要求會議參與者明確同意被記錄和轉錄。除非他們提供明確的許可,否則他們的麥克風和攝像頭無法打開,也無法共享內容。”
然而,這些權限并不總是解決人類缺乏經驗的操作或錯誤。人工智能基礎設施公司CUDO Compute的首席營銷官拉爾斯·尼曼(Lars Nyman)表示,為了給虛擬助手的使用設置更多的限制,可以把人工智能助手看作是初級行政助理。
尼曼告訴《財富》雜志,它“很有用,但還缺乏經驗。要避免自動發送跟進信息,而應手動進行審核和批準。積極塑造人工智能流程,保持對共享內容和時間的嚴格控制。關鍵在于,在這個階段,不要賦予人工智能超過剛大學畢業的新員工的更多的自主權。”(財富中文網)
譯者:中慧言-王芳
如果你曾在Zoom電話會議中看到Otter.ai虛擬助手出現在房間里,請知曉它們在聽你說話,并記錄下你所說的一切。在人工智能和混合或遠程辦公模式時代,這種做法在某種程度上已變得相當普遍,但令人擔憂的是,許多用戶并不了解這項技術的全部功能。
如果你不知道如何選擇正確的設置,Otter.ai等虛擬助手會向所有與會者發送錄音和文字記錄,即使有嘉賓提前離開了會議。這意味著,如果你說同事的壞話、討論機密信息或分享卑劣的商業行為,人工智能會識別出來,而且會出賣你。
研究人員兼工程師亞歷克斯·比爾澤里安(Alex Bilzerian)最近就遇到了這種情況。他與一家風險投資公司進行了一次Zoom電話會議,Otter.ai被用來記錄電話會議內容。比爾澤里安上周在X上的一篇帖子中寫道,會議結束后,Otter.ai自動將記錄通過電子郵件發送給他,其中包括“他們之后幾個小時的私人談話:他們討論了關于業務的私密和機密細節”。Otter.ai成立于2016年,提供錄音和轉錄服務,可以通過Zoom連接,也可以在虛擬會議或面對面會議時手動連接。
比爾澤里安告訴《華盛頓郵報》,記錄顯示,在他退出會議后,投資者討論了他們公司的“戰略失敗和虛假指標”。雖然比爾澤里安提醒投資者注意此事,但在他們“深表歉意”后,他仍然決定終止交易。
這只是新興人工智能技術被用戶誤解的眾多例子之一。針對比爾澤里安在X上發布的帖子,其他用戶也報告了類似的情況。
另一位用戶迪恩·朱利葉斯(Dean Julius)在X上寫道:“今天,我妻子參加了一次工作相關撥款會議,[整個]會議都被記錄下來并做了注釋。有些人留下來私下討論會議內容。但虛擬助手一直在記錄會議內容,然后都發給大家了。無比尷尬。”
其他用戶指出,隨著虛擬治療和遠程醫療會議變得更加突出,這可能成為醫療保健行業的一個主要問題。
醫療軟件公司IT medical的醫生兼醫療顧問丹妮爾·凱爾瓦斯(Danielle Kelvas)在接受《財富》雜志采訪時表示:“你可以想象,這將成為醫療保健領域一個非常嚴重的問題,涉及到受保護的健康信息。醫療服務提供商對隱私的擔憂是可以理解的。例如,無論是人工智能書寫設備還是人工智能超聲設備,我們作為醫生都會問,這些信息流向哪里?”
不過,Otter.ai堅持認為,用戶可以防止這些尷尬或令人難堪的事件發生。
Otter.ai發言人告訴《財富》雜志:“用戶完全可以控制自己的設置,我們努力讓Otter盡可能直觀。雖然通知功能是內置的,但我們也強烈建議在會議和對話中使用Otter時繼續征求用戶同意,并說明你使用Otter的情況,以實現完全透明。”該發言人還建議訪問公司的幫助中心,查看所有設置和偏好。
人工智能虛擬助手的力量
作為提高工作效率和記錄重要對話的一種手段,越來越多的企業開始在工作流程中使用人工智能功能。雖然人工智能無疑可以減少抄錄并將其發送給利益相關者的繁瑣做法,但人工智能仍不具備與人類相同的感知能力。
數據咨詢公司Affinity Reply的高級顧問蘇克·索哈爾(Sukh Sohal)在接受《財富》雜志采訪時表示:“由于人工智能的自動化行為和缺乏判斷力,它存在泄露‘工作機密’的風險。我有客戶對非計劃中的信息共享表示擔憂。如果企業在采用人工智能工具時沒有充分了解其設置或影響,例如在與會者離開會議后繼續自動轉錄,就會出現這種情況。”
但歸根結底,人類才是這項技術的推動者。
計算技術行業協會(CompTIA)戰略高級副總裁漢娜·約翰遜(Hannah Johnson)在接受《財富》雜志采訪時表示:“雖然人工智能正在幫助我們更快、更智能地工作,但我們需要了解自己正在使用的工具。我們不能忘記,情商和有效溝通同樣至關重要。技術可能在不斷發展,但人類的技能仍然是維系這一切的粘合劑。”
其他人工智能助手,如微軟(Microsoft)Copilot,工作原理與Otter.ai類似,可以記錄和轉錄會議內容。不過,微軟的一位發言人告訴《財富》雜志,Coiplot也有一些保障措施:用戶要么必須親自參加會議,要么必須征得組織者的同意,才能共享會議記錄或文稿。
微軟發言人在一份聲明中表示:“在Teams會議中,所有與會者都會看到會議正在被記錄或轉錄的通知。”此外,管理員還可以啟用一項設置,要求會議參與者明確同意被記錄和轉錄。除非他們提供明確的許可,否則他們的麥克風和攝像頭無法打開,也無法共享內容。”
然而,這些權限并不總是解決人類缺乏經驗的操作或錯誤。人工智能基礎設施公司CUDO Compute的首席營銷官拉爾斯·尼曼(Lars Nyman)表示,為了給虛擬助手的使用設置更多的限制,可以把人工智能助手看作是初級行政助理。
尼曼告訴《財富》雜志,它“很有用,但還缺乏經驗。要避免自動發送跟進信息,而應手動進行審核和批準。積極塑造人工智能流程,保持對共享內容和時間的嚴格控制。關鍵在于,在這個階段,不要賦予人工智能超過剛大學畢業的新員工的更多的自主權。”(財富中文網)
譯者:中慧言-王芳
If you’ve ever been in a Zoom meeting and seen an Otter.ai virtual assistant in the room, just know they’re listening to you—and recording everything you’re saying. It’s a practice that’s become somewhat mainstream in the age of artificial intelligence and hybrid or remote work, but what’s alarming is many users don’t know the full capabilities of the technology.
Virtual assistants like Otter.ai, if you don’t know the proper settings to select, will send a recording and transcript to all meeting attendees, even if a guest has left the meeting early. That means if you’re talking bad about your coworkers, discussing confidential information, or sharing shoddy business practices, the AI will pick up on it. And it will rat you out.
That happened to researcher and engineer Alex Bilzerian recently. He had been on a Zoom meeting with a venture-capital firm and Otter.ai was used to record the call. After the meeting, it automatically emailed him the transcript, which included “hours of their private conversations afterward, where they discussed intimate, confidential details about their business,” Bilzerian wrote in an X post last week. Otter.ai was founded in 2016, and provides recording and transcription services that can be connected through Zoom or manually when in a virtual or in-person meeting.
The transcript showed that after Bilzerian had logged off, investors had discussed their firm’s “strategic failures and cooked metrics,” he told The Washington Post. While Bilzerian alerted the investors to the incident, he still decided to kill the deal after they had “profusely apologized.”
This is just one of many examples of how nascent AI technologies are misunderstood by users. In response to Bilzerian’s post on X, other users reported similar situations.
“Literally happened to my wife today with a grant meeting at work,” another user, Dean Julius wrote on X. “[The] whole meeting [was] recorded and annotated. Some folks stayed behind on the call to discuss the meeting privately. Kept recording. Sent it all out to everyone. Suuuuper awkward.”
Other users pointed out this could become a major issue in the health-care industry as virtual therapy and telehealth sessions become more prominent.
“This is going to become a pretty terrible problem in health care, as you can imagine, regarding protected health information,” Danielle Kelvas, a physician and medical adviser for medical software company IT Medical, told Fortune. “Health care providers understandably have concerns about privacy. Whether this is an AI-scribe device or AI powered ultrasound device, for example, we as doctors are asking, where is this information going?”
Otter.ai, however, insists users can prevent these awkward or embarrassing incidents from happening.
“Users have full control over their settings and we work hard to make Otter as intuitive as possible,” an Otter.ai spokesperson told Fortune. “Although notifications are built in, we also strongly recommend continuing to ask for consent when using Otter in meetings and conversations and indicate your use of Otter for full transparency.” The spokesperson also suggested visiting the company’s Help Center to review all settings and preferences.
The power of AI virtual assistants
As a means of increasing productivity and having records of important conversations, more businesses have begun implementing AI features into workflows. While it can undoubtedly cut down on the tedious practice of transcribing and sending notes out to stakeholders, AI still doesn’t have the same sentience as humans.
“AI poses a risk in revealing ‘work secrets’ due to its automated behaviours and lack of discretion,” Sukh Sohal, a senior consultant at data advisory Affinity Reply, told Fortune. “I’ve had clients express concerns over unintended information sharing. This can come about when organizations adopt AI tools without fully understanding their settings or implications, such as auto-transcription continuing after participants have left a meeting.”
Ultimately, though, humans are the ones who are enabling the tech.
“While AI is helping us work faster and smarter, we need to understand the tools we’re using,” Hannah Johnson, senior vice president of strategy at The Computing Technology Industry Association (CompTIA), told Fortune. “And we can’t forget that emotional intelligence and effective communication are just as vital. Technology may be evolving, but human skills remain the glue that holds it all together.”
Other AI assistants, like Microsoft’s Copilot, work similarly to Otter.ai, in that meetings can be recorded and transcribed. But in the case of Coiplot, there are some backstops: A user has to either be a part of the meeting or have the organizer approve the share of the recording or transcripts, a Microsoft spokesperson told Fortune.
“In Teams meetings, all participants see a notification that the meeting is being recorded or transcribed,” the Microsoft spokesperson said in a statement. “Additionally, admins can enable a setting that requires meeting participants to explicitly agree to be recorded and transcribed. Until they provide explicit permission, their microphones and cameras cannot be turned on, and they will be unable to share content.”
Still, these permissions don’t always address human naivety or error. To apply more guardrails to virtual assistant usage, Lars Nyman, chief marketing officer of AI infrastructure company CUDO Compute, said to think of your AI assistant as a junior executive assistant.
It’s “useful, but not yet seasoned,” Nyman told Fortune. “Avoid auto-sending follow-ups; instead, review and approve them manually. Shape AI processes actively, maintaining firm control over what gets shared and when. The key is not to entrust AI with more autonomy than you’d give to a new hire fresh out of college at this stage.”