精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
雜志訂閱

“全自動駕駛”特斯拉差點撞上福特,誰的責任?

David Z. Morris
2020-11-23

當真正的無人駕駛汽車上路時,責任就將從司機身上轉移到汽車制造商和軟件設計師身上。

文本設置
小號
默認
大號
Plus(0條)

一輛白色的特斯拉Model 3駛出了停車位,向左轉彎。

“哇,我的天吶?!瘪{駛員喃喃道。他的雙手還懸在方向盤上方,是汽車自己動了起來。這款汽車裝載了特斯拉的“全自動駕駛”軟件。在特斯拉的描述中,憑借這項技術,無人駕駛終將會變成現實。

然而,瞬息之間,麻煩就找上了門。車上有人大叫著:“啊,??!”這輛車就快撞上停在路邊的一輛福特汽車了。

司機布蘭登·麥高恩是全自動駕駛技術的“Beta版測試員”。他迅速抓穩方向盤,在緊要關頭阻止了一場事故的發生。驚魂未定的他連聲道:“天吶天吶天吶。”

這段10月26日于加利福尼亞州奧本拍攝的視頻,展現了自10月以來,特斯拉的部分購買者在測試全自動駕駛技術時所遭遇的狀況之一。

雖然全自動駕駛技術也有過一些令人眼前一亮的表現,但這樣的僥幸案例卻把一個問題擺在了人們眼前:當一輛無人駕駛汽車撞向你或你的所有物時,你該去起訴誰?該由誰負責賠償?

該負責的是那個坐在駕駛座上,卻根本沒有觸碰方向盤的人嗎?是創造這款軟件的開發人員?是汽車制造商——還是汽車導航儀攝像頭的供貨商?

相比于這個未解的問題,行業的玩家們更多的只是專注于自動駕駛技術本身,并想方設法在這場比賽中取得優勢。無論是傳統汽車廠商、大型科技公司,還是初創公司,紛紛開始探索自動駕駛領域。其中不乏中國公司的身影,例如已推出“阿波羅”計劃的百度、提出將于2030年實現全自動駕駛愿景的滴滴,還有小鵬汽車,其創始人剛剛與馬斯克隔空互懟。

自動駕駛已于中國部分地區實現落地。今年4月,長沙開放無人駕駛出租車試乘。10月,北京開放無人駕駛出租車試乘,蘇州實現了全國首個常態化運營的5G無人公交。但總體而言,目前還是停留在“試水”階段,雖然企業對于相關技術有很大熱情,但離大規模商業化落地尚有距離。滴滴官方曾表示:自動駕駛的落地需要經過技術成熟、商業成熟和政策法規成熟三個階段,尚需一定時間。

國外的玩家里,除了特斯拉新推出的全自動駕駛技術之外,從Alphabet公司中拆分出來的Waymo公司也在亞利桑那州發布了真正的無人駕駛汽車。但Waymo公司最新公開的一份報告顯示,在2019和2020年間,該品牌的車輛共發生了18起事故。并且,要不是安全防護司機多次介入化險為夷,這一數字還會更大。

不可否認,自動駕駛技術還在不斷的完善之中,總有一天,它會比手動駕駛更加安全。但專家們一致認為,此類系統并不能完全杜絕意外事故。

從某種程度上來說,市場炒作模糊了責任劃分的問題。雖然特斯拉打著“全自動駕駛”的名號,但那并不是個能夠完全實現自動化的駕駛系統。

他們所謂的“全自動駕駛”技術與凱迪拉克和沃爾沃所用的技術類似,其實是一種高級駕駛輔助系統(ADAS)。此類技術可以讓汽車駕駛的某些環節實現自動化,但汽車駕駛員仍然需對駕駛時發生的事情負責。

美國汽車協會交通安全基金會于今年9月發表的一項研究暗示,ADAS系統“高度自動化”的名稱和營銷手段會增加司機分心或失責駕駛的風險。在這項研究中,90名駕駛員被告知他們將測試駕駛一輛具有駕駛員輔助功能的車輛。

其中,一半的司機被告知該系統名為“AutonoDrive”(自動駕駛),并提供了介紹信息,重點是該系統將如何減輕他們的工作量。另一半則被告知他們將使用一種名為“DriveAssist”(輔助駕駛)的系統,駕駛時必須對車輛進行監控。

系統的實際能力被準確地描述給每一組參與測試的駕駛員。

在此之后的調查中,“自動駕駛”組中有42%的司機高估了系統的能力,而“輔助駕駛”組中只有11%的司機犯了這一錯誤?!白詣玉{駛”用戶還表示,在使用該系統時,他們“更愿意做可能分散注意力或危險的行為”,而且更相信該系統能夠防止碰撞。事實上,根據研究人員的說法,該系統不太可能在這類情況下阻止碰撞的發生。

隨后,兩組司機都試駕了裝有凱迪拉克超級巡航駕駛輔助系統的車輛(不過該系統的真實名字沒有透露給司機)。被告知使用“自動駕駛”的司機把手離開方向盤的時間比被告知使用“輔助駕駛”的司機多30%?!白詣玉{駛”組的受試者對汽車自動控制系統發出的控制車輛的指令反應更慢,超過5秒。

美國汽車協會的汽車工程和工業關系主管格雷格?布蘭農說:“這樣的結果應該不會太令人驚訝。如果系統使用的名稱拔高了系統的能力,無疑是在給司機設立了一個錯誤的情境:這個系統比它實際可以做到的還要厲害?!?/p>

在涉及這種有司機參與的所謂無人駕駛系統的致命事故中,美國監管機構和安全調查人員總是會把責任歸咎于沒有注意路況的人類駕駛員。

而當真正的無人駕駛汽車上路時,責任就將從司機身上轉移到汽車制造商和軟件設計師身上。但專家們并不希望通過立法來確立這一新規則。

相反地,自動駕駛出租車或自動駕駛牽引車的責任將由法院依據現有法律,對具體事故進行判斷后給出裁決。

南卡羅來納大學法學教授布萊恩特?沃克?史密斯致力于研究責任與自動駕駛汽車相關問題,他表示:“要‘根據實際情況’判斷誰該承擔責任?!?/p>

實際上,在人類駕駛機動車的歷史中,對于司機應該負什么責任,人們的看法也發生過變化。

史密斯舉例說,1930年代和1940年代時,一些被出租車撞傷的受害者會向出租車乘客而非司機提起訴訟。經過法院的多次否決,這一現象如今已幾乎絕跡。

史密斯認為,應該總結出幾條完善的法律條例,用以判斷涉及自動駕駛車輛的個人責任。從最高層面上來說,自動駕駛汽車將承擔“替代責任”,也就是說,企業應對其員工的行為和產品的質量負責。

史密斯說:“車輪是不是掉落了?指示停車的(系統)編碼是不是寫錯了?激光雷達(許多自動駕駛系統都包含了激光雷達傳感器)是不是失靈了?”如果明顯是因為硬件或軟件的故障導致了撞車事故,汽車制造商可能就要承擔相關的責任。

不過,許多涉及人類駕駛員的事故都是因為某些微妙的判斷失誤所導致的。史密斯希望法院能使用一些公式,去評估科技的反應效率。

他表示,第一個問題就是:“此類系統的表現,是否能與稱職的人類駕駛員相提并論?如果不能,那就證明它存在缺陷。”

這套標準可以用來判斷系統的整體性能,而非其在特定情況下的行為。

早在2017年,美國國家公路交通安全管理局就制定了一套這樣的標準。當時,該機構稱贊了特斯拉自動駕駛系統總體上的安全優勢,還排除了該系統在2016年的一場致命車禍中所發生的故障。

史密斯表示,其次就是,在評估責任時,法院需衡量,[自動駕駛汽車的]某一特定系統是否能比得上,甚至超過其它類似的系統。在汽車召回和安全監管項目中,這已經成為了一項關鍵考量因素。

最后一點,史密斯希望法院在評估自動駕駛汽車時,能夠先進行一項新的司法鑒定:“[如果兩輛車都造成了同樣的傷害,自動駕駛汽車的]這套系統是否比另一輛車配置的舊系統更好?”

畢竟,機器人駕駛員比人類駕駛員更安全的核心特征之一,就是它具有持續學習的能力。自動駕駛系統能夠從其它數千輛車輛所收集的數據中學習,而非依靠某個人的經驗(或是人類遲緩的反應速度)。

這一技術承諾符合“可預見性”的法律原則——民事被告是否應該具備預測到某種特定風險的能力?

“一旦出現苗頭,就能預見到即將發生的事?!笔访芩拐J為,自動駕駛系統的開發者不應該“重復犯同樣的錯誤”。

汽車制造商不僅關心自己的聲譽,也關心自己需要承擔的法律責任。

在安全方面,各個汽車制造商之間的競爭已經持續了很久,并且,他們仍在為實現真正的自動化而努力。不過,包括福特、通用、豐田、優步和Lyft等品牌已經加入了自動駕駛車輛安全聯盟,在系統的安全標準方面達成了合作。

SAE(一個由汽車工程師組成的專業組織)的主管弗蘭克·蒙查卡說:“聯盟所做的許多工作都建立在一個假設的基礎之上,即最終,制造商要對系統做出的決定負責?!边@種對責任和聲譽的擔憂,很好地說明了相比于特斯拉這樣的公司,福特和戴姆勒等公司更謹慎一些。

美國汽車協會內負責審查自動駕駛汽車規定的格雷格·班農表示,需要“數年”的時間,得到汽車行業、執法部門、法院和保險公司共同認可的、針對真正的自動駕駛汽車的法律條例才能確立。

這樣的法律條例將有助于結束漫長的法律斗爭,解決更多的索賠案。

不過,等到真正的沒有人類駕駛員操縱的無人駕駛汽車使用率上升,自然就會誕生出最合適的法律。(財富中文網)

譯者:殷圓圓

編輯:徐曉彤

一輛白色的特斯拉Model 3駛出了停車位,向左轉彎。

“哇,我的天吶。”駕駛員喃喃道。他的雙手還懸在方向盤上方,是汽車自己動了起來。這款汽車裝載了特斯拉的“全自動駕駛”軟件。在特斯拉的描述中,憑借這項技術,無人駕駛終將會變成現實。

然而,瞬息之間,麻煩就找上了門。車上有人大叫著:“啊,啊!”這輛車就快撞上停在路邊的一輛福特汽車了。

司機布蘭登·麥高恩是全自動駕駛技術的“Beta版測試員”。他迅速抓穩方向盤,在緊要關頭阻止了一場事故的發生。驚魂未定的他連聲道:“天吶天吶天吶?!?/p>

這段10月26日于加利福尼亞州奧本拍攝的視頻,展現了自10月以來,特斯拉的部分購買者在測試全自動駕駛技術時所遭遇的狀況之一。

雖然全自動駕駛技術也有過一些令人眼前一亮的表現,但這樣的僥幸案例卻把一個問題擺在了人們眼前:當一輛無人駕駛汽車撞向你或你的所有物時,你該去起訴誰?該由誰負責賠償?

該負責的是那個坐在駕駛座上,卻根本沒有觸碰方向盤的人嗎?是創造這款軟件的開發人員?是汽車制造商——還是汽車導航儀攝像頭的供貨商?

相比于這個未解的問題,行業的玩家們更多的只是專注于自動駕駛技術本身,并想方設法在這場比賽中取得優勢。無論是傳統汽車廠商、大型科技公司,還是初創公司,紛紛開始探索自動駕駛領域。其中不乏中國公司的身影,例如已推出“阿波羅”計劃的百度、提出將于2030年實現全自動駕駛愿景的滴滴,還有小鵬汽車,其創始人剛剛與馬斯克隔空互懟。

自動駕駛已于中國部分地區實現落地。今年4月,長沙開放無人駕駛出租車試乘。10月,北京開放無人駕駛出租車試乘,蘇州實現了全國首個常態化運營的5G無人公交。但總體而言,目前還是停留在“試水”階段,雖然企業對于相關技術有很大熱情,但離大規模商業化落地尚有距離。滴滴官方曾表示:自動駕駛的落地需要經過技術成熟、商業成熟和政策法規成熟三個階段,尚需一定時間。

國外的玩家里,除了特斯拉新推出的全自動駕駛技術之外,從Alphabet公司中拆分出來的Waymo公司也在亞利桑那州發布了真正的無人駕駛汽車。但Waymo公司最新公開的一份報告顯示,在2019和2020年間,該品牌的車輛共發生了18起事故。并且,要不是安全防護司機多次介入化險為夷,這一數字還會更大。

不可否認,自動駕駛技術還在不斷的完善之中,總有一天,它會比手動駕駛更加安全。但專家們一致認為,此類系統并不能完全杜絕意外事故。

從某種程度上來說,市場炒作模糊了責任劃分的問題。雖然特斯拉打著“全自動駕駛”的名號,但那并不是個能夠完全實現自動化的駕駛系統。

他們所謂的“全自動駕駛”技術與凱迪拉克和沃爾沃所用的技術類似,其實是一種高級駕駛輔助系統(ADAS)。此類技術可以讓汽車駕駛的某些環節實現自動化,但汽車駕駛員仍然需對駕駛時發生的事情負責。

美國汽車協會交通安全基金會于今年9月發表的一項研究暗示,ADAS系統“高度自動化”的名稱和營銷手段會增加司機分心或失責駕駛的風險。在這項研究中,90名駕駛員被告知他們將測試駕駛一輛具有駕駛員輔助功能的車輛。

其中,一半的司機被告知該系統名為“AutonoDrive”(自動駕駛),并提供了介紹信息,重點是該系統將如何減輕他們的工作量。另一半則被告知他們將使用一種名為“DriveAssist”(輔助駕駛)的系統,駕駛時必須對車輛進行監控。

系統的實際能力被準確地描述給每一組參與測試的駕駛員。

在此之后的調查中,“自動駕駛”組中有42%的司機高估了系統的能力,而“輔助駕駛”組中只有11%的司機犯了這一錯誤。“自動駕駛”用戶還表示,在使用該系統時,他們“更愿意做可能分散注意力或危險的行為”,而且更相信該系統能夠防止碰撞。事實上,根據研究人員的說法,該系統不太可能在這類情況下阻止碰撞的發生。

隨后,兩組司機都試駕了裝有凱迪拉克超級巡航駕駛輔助系統的車輛(不過該系統的真實名字沒有透露給司機)。被告知使用“自動駕駛”的司機把手離開方向盤的時間比被告知使用“輔助駕駛”的司機多30%?!白詣玉{駛”組的受試者對汽車自動控制系統發出的控制車輛的指令反應更慢,超過5秒。

美國汽車協會的汽車工程和工業關系主管格雷格?布蘭農說:“這樣的結果應該不會太令人驚訝。如果系統使用的名稱拔高了系統的能力,無疑是在給司機設立了一個錯誤的情境:這個系統比它實際可以做到的還要厲害?!?/p>

在涉及這種有司機參與的所謂無人駕駛系統的致命事故中,美國監管機構和安全調查人員總是會把責任歸咎于沒有注意路況的人類駕駛員。

而當真正的無人駕駛汽車上路時,責任就將從司機身上轉移到汽車制造商和軟件設計師身上。但專家們并不希望通過立法來確立這一新規則。

相反地,自動駕駛出租車或自動駕駛牽引車的責任將由法院依據現有法律,對具體事故進行判斷后給出裁決。

南卡羅來納大學法學教授布萊恩特?沃克?史密斯致力于研究責任與自動駕駛汽車相關問題,他表示:“要‘根據實際情況’判斷誰該承擔責任?!?/p>

實際上,在人類駕駛機動車的歷史中,對于司機應該負什么責任,人們的看法也發生過變化。

史密斯舉例說,1930年代和1940年代時,一些被出租車撞傷的受害者會向出租車乘客而非司機提起訴訟。經過法院的多次否決,這一現象如今已幾乎絕跡。

史密斯認為,應該總結出幾條完善的法律條例,用以判斷涉及自動駕駛車輛的個人責任。從最高層面上來說,自動駕駛汽車將承擔“替代責任”,也就是說,企業應對其員工的行為和產品的質量負責。

史密斯說:“車輪是不是掉落了?指示停車的(系統)編碼是不是寫錯了?激光雷達(許多自動駕駛系統都包含了激光雷達傳感器)是不是失靈了?”如果明顯是因為硬件或軟件的故障導致了撞車事故,汽車制造商可能就要承擔相關的責任。

不過,許多涉及人類駕駛員的事故都是因為某些微妙的判斷失誤所導致的。史密斯希望法院能使用一些公式,去評估科技的反應效率。

他表示,第一個問題就是:“此類系統的表現,是否能與稱職的人類駕駛員相提并論?如果不能,那就證明它存在缺陷。”

這套標準可以用來判斷系統的整體性能,而非其在特定情況下的行為。

早在2017年,美國國家公路交通安全管理局就制定了一套這樣的標準。當時,該機構稱贊了特斯拉自動駕駛系統總體上的安全優勢,還排除了該系統在2016年的一場致命車禍中所發生的故障。

史密斯表示,其次就是,在評估責任時,法院需衡量,[自動駕駛汽車的]某一特定系統是否能比得上,甚至超過其它類似的系統。在汽車召回和安全監管項目中,這已經成為了一項關鍵考量因素。

最后一點,史密斯希望法院在評估自動駕駛汽車時,能夠先進行一項新的司法鑒定:“[如果兩輛車都造成了同樣的傷害,自動駕駛汽車的]這套系統是否比另一輛車配置的舊系統更好?”

畢竟,機器人駕駛員比人類駕駛員更安全的核心特征之一,就是它具有持續學習的能力。自動駕駛系統能夠從其它數千輛車輛所收集的數據中學習,而非依靠某個人的經驗(或是人類遲緩的反應速度)。

這一技術承諾符合“可預見性”的法律原則——民事被告是否應該具備預測到某種特定風險的能力?

“一旦出現苗頭,就能預見到即將發生的事?!笔访芩拐J為,自動駕駛系統的開發者不應該“重復犯同樣的錯誤”。

汽車制造商不僅關心自己的聲譽,也關心自己需要承擔的法律責任。

在安全方面,各個汽車制造商之間的競爭已經持續了很久,并且,他們仍在為實現真正的自動化而努力。不過,包括福特、通用、豐田、優步和Lyft等品牌已經加入了自動駕駛車輛安全聯盟,在系統的安全標準方面達成了合作。

SAE(一個由汽車工程師組成的專業組織)的主管弗蘭克·蒙查卡說:“聯盟所做的許多工作都建立在一個假設的基礎之上,即最終,制造商要對系統做出的決定負責?!边@種對責任和聲譽的擔憂,很好地說明了相比于特斯拉這樣的公司,福特和戴姆勒等公司更謹慎一些。

美國汽車協會內負責審查自動駕駛汽車規定的格雷格·班農表示,需要“數年”的時間,得到汽車行業、執法部門、法院和保險公司共同認可的、針對真正的自動駕駛汽車的法律條例才能確立。

這樣的法律條例將有助于結束漫長的法律斗爭,解決更多的索賠案。

不過,等到真正的沒有人類駕駛員操縱的無人駕駛汽車使用率上升,自然就會誕生出最合適的法律。(財富中文網)

譯者:殷圓圓

編輯:徐曉彤

A white Tesla Model 3 sedan pulls away from a stop sign, beginning a wide left turn.

"Oh my gosh," whispers the driver, whose hands hover above the steering wheel as the car moves on its own. The vehicle is controlled by Tesla's Full Self Driving software, technology that Tesla says will eventually be able to drive cars without human involvement.

But suddenly, there's trouble. "Oh. Oh!" a passenger shouts, as it becomes clear that the car is about to drive itself into a parked Ford.

The driver, an FSD "beta tester" named Brendan McGowan, quickly seizes the wheel, narrowly avoiding a collision. "Jeeeeeeezus," he exclaims.

McGowan's video of the incident, recorded in Auburn, Calif. on October 26, is just one of many new glimpses of FSD in action since the technology was made available for testing by some Tesla customers in October. Although FSD has had some impressive moments, near-misses like this one highlight a largely unanswered question: When a driverless car slams into you or your property, who do you sue, and who pays up?

Is the person behind the steering wheel responsible – even if they weren't touching it? What about the developer who built the software? Or is it the car's manufacturer—or maybe the supplier that made the car's navigational cameras—that are liable?

The question has taken on new relevance in recent weeks. In addition to Tesla's FSD rollout, Alphabet spinoff Waymo has deployed truly driverless vehicles in Arizona. A recent report from Waymo disclosed that Waymo vehicles were involved in 18 accidents in 2019 and 2020, and avoided several others because a human safety driver intervened.

Of course, autonomous driving technology is still being refined, and eventually it's expected to drive more safely than humans. But experts agree that no such system can completely eliminate accidents.

The question of liability has been somewhat muddied by marketing hype. Despite the name of Tesla's “Full Self Driving”, it's not yet an autonomous driving system. As with similar technology from Cadillac and Volvo, FSD is considered an advanced driver-assistance system, or ADAS. These automate some elements of driving, such as lanekeeping, but drivers still have ultimate responsibility for what happens when they’re behind the wheel. In fatal accidents involving supervised autonomy systems, U.S. regulators and safety investigators have repeatedly placed blame on human drivers who weren't watching the road.

When truly driverless cars hit the road, responsibility will shift from drivers to vehicle makers and software designers. But experts don’t expect comprehensive legislation laying out the new order.

Instead, liability for robotaxis or automated tractors will be determined as courts through the courts, based on using existing law to the new facts of specific incidents.

“The answer to who’s liable is going to be, ‘It depends,’” says Bryant Walker Smith, a University of South Carolina law professor who studies liability and autonomous vehicles.

The same process shaped how we think about liability for human drivers. For instance, Smith says that in the 1930s and ‘40s, some accident victims struck by hired taxis tried to sue the passengers rather than the drivers. That approach has largely disappeared because it was rejected by courts.

Smith says that judging liability in individual accidents involving self-driving vehicles should come down to several well-established legal principles. At the highest level, autonomous vehicles will be subject to ‘vicarious liability,’ the idea that companies are responsible for the actions of their employees and the quality of the products they produce.

“Did a wheel fall off? Was a stop sign miscoded [in the system]? Did the LIDAR fail?” says Smith, referring to the laser-based radar used by many autonomous systems. If an obvious hardware or software failure caused a crash, a vehicle’s manufacturer would probably end up being liable.

But many accidents involving human drivers are caused by subtler failures of judgment, and Smith expects courts to use a handful of formulas to evaluate how the technology responded. The first, he says, will be: “Did this system perform as well as a competent human driver? If not, that’s going to suggest there was a defect.”

That standard may be applied to a system’s overall performance rather than its actions in a specific situation. The U.S. National Highway Traffic Safety Administration set the table for that criteria in 2017, when it touted the overall safety benefits of Tesla’s Autopilot system while clearing the system of fault in a fatal 2016 crash.

Second, Smith says, courts assessing liability will look at whether a specific system performs as well or better than a comparable system. That’s already a key measure in automotive recall and safety-monitoring programs.

Finally, Smith hopes courts will adopt one novel legal test when evaluating self-driving cars: “Did the system perform better than the last one that caused this harm?”

The ability to constantly learn, after all, is one of the core features that promise to make robots safer drivers than humans. Rather than relying on one person’s experience (or their slow human reflexes), autonomous systems will learn from data gathered by thousands of other vehicles. That technological promise aligns with the legal principle of ‘foreseeability'—the question of whether a civil defendant should have predicted a particular risk.

“Once something has happened, it has been foreseen,” says Smith. The makers of autonomous systems, he argues, shouldn’t “get to make the same mistake twice.”

Auto manufacturers are as concerned with their reputation as with straightforward legal liability, though. Automakers have long competed on safety, and they're still out to win the battle for autonomy. But they're also collaborating on safety standards for the systems through the Automated Vehicle Safety Consortium, which includes Ford, GM, Toyota, Uber, and Lyft.

“Underpinning a lot of the work that the consortium has done is the assumption that ultimately the manufacturer is responsible for the behavior of the system,” says Frank Menchaca, an executive at SAE, a professional organization of auto engineers. That concern about responsibility and reputation helps explain the caution of a Ford or Daimler compared to a company like Tesla.

According to Greg Bannon, who oversees autonomous-vehicle policy for AAA, it will take “years” of court decisions involving truly autonomous vehicles to create consensus about liability between industry, law enforcement, courts, and insurers. That consensus will allow more claims to be settled without lengthy legal fights.

The greatest legal clarity, though, may come simply as more truly driverless vehicles hit the road, with clear messaging that no human driver is in control – or responsible for the vehicle's actions.

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開

            主站蜘蛛池模板: 时尚| 铜山县| 庆云县| 利辛县| 德清县| 葵青区| 中卫市| 乌苏市| 桓仁| 丹凤县| 浦江县| 开江县| 东莞市| 绥棱县| 博爱县| 麻阳| 诸城市| 大化| 延津县| 龙州县| 伊通| 娱乐| 张北县| 昌吉市| 孟村| 宜阳县| 木兰县| 固阳县| 女性| 雷波县| 鄂托克前旗| 建瓯市| 莫力| 蓬安县| 宁强县| 吴忠市| 皮山县| 集贤县| 绥棱县| 青冈县| 延安市|