OpenAI、微軟、谷歌將齊聚,共議相關使用標準
2023-04-11 17:00
文本設置
小號
默認
大號
Plus(0條)
據媒體最新報道,本周三,人工智能開發(fā)領域頂尖企業(yè)將開會討論制定關于如何使用人工智能技術的標準。 | 相關閱讀(華爾街見聞)
44
裕棠
追求內心的平靜和安寧
對于AI模型ChatGPT的安全問題,從專家的質疑到歐洲許多國家明確表示限制,促使AI領域頂尖企業(yè)坐下來,開始討論制定關于如何使用人工智能技術的標準,明確安全邊界,這的確是人工智能領域的一件大事。
盡管人們知道ChatGPT有助于提高生產力,增強創(chuàng)造力,并提供量身定制的學習體驗。但人們也意識到,這些工具存在著的風險性。網上也有一些防范AI給人類帶來風險的建議,比如:圍繞AI開發(fā)強有力的倫理和法律框架,確保AI系統(tǒng)的設計和運營符合人類價值觀和利益;對AI系統(tǒng)進行嚴格的監(jiān)管和審核,以確保其安全性和可靠性;鼓勵開發(fā)AI系統(tǒng)的人員和團隊遵循最佳實踐和標準,以確保其安全性和可靠性;加強AI系統(tǒng)的安全和防護措施,以防止黑客和惡意行為者利用其造成危害;培養(yǎng)公眾的AI素養(yǎng)和意識,以便能夠正確理解和評估AI系統(tǒng)的風險和潛在影響等。
AI領域科技頭部研討安全問題,也是對社會反應出來問題的回饋,很有必要。大模型GPT訓練,是為人類造福,而不是相反。因此能在初期定出規(guī)則,避免隱患,這對AI技術的發(fā)展大有好處。當然隨著AI技術研究的不斷深入,隨著各種場景應用的實現(xiàn),行業(yè)監(jiān)管部門也要和研發(fā)機構一起,做好預判,對AI領域相關安全規(guī)則及時跟近和完善。