科技部在其官方網站上正式發布了《駕駛自動化技術研發倫理準則》(以下簡稱《準則》),旨在預防技術研發與產品應用環節中可能出現的倫理風險,并為該領域的健康發展提供指導。
《準則》著重指出,在遭遇無法避免的交通事故或極端駕駛條件時,駕駛自動化系統應優先考慮生命安全,積極尋找最佳解決方案,以最大程度地減少對人員的傷害。與駕駛自動化技術相關的算法、模型等信息需詳細記錄,并保證隨時可以查閱。
對于駕駛自動化技術的研發,《準則》要求必須建立完善的風險監測和應急響應機制,確保相關責任方能夠迅速識別、介入并控制風險,將潛在危害控制在合理范圍內。同時,強調在技術研發和應用過程中,應構建全面的數據隱私保護體系,嚴格遵守知情同意、最小化數據使用、去標識化等原則。
針對不同級別的駕駛自動化技術,《準則》明確了相應的倫理要求。具體而言,2級及以下的駕駛自動化屬于先進駕駛輔助階段,責任主體主要是人類駕駛員;3級和4級駕駛自動化屬于有限制階段的自動駕駛,責任主體依據具體場景而定,可能是用戶或自動駕駛系統;而5級駕駛自動化則屬于無限制階段的自動駕駛,除非特殊情況下用戶主動干預,否則責任主體主要為自動駕駛系統。當自動駕駛系統成為責任主體時,必須能夠根據法律法規清晰追溯責任。
《準則》還強調,在發布重要研究成果時,相關主體必須確保信息的客觀性和準確性,嚴禁編造或傳播與駕駛自動化系統實際功能和效果不符的虛假信息。在研發、生產和推廣過程中,相關主體應明確向公眾說明駕駛自動化產品的功能級別、使用條件、操作方式等關鍵信息,并及時澄清可能誤導公眾的誤導性信息。