<dl id="dzxfz"></dl>

    <p id="dzxfz"></p>
<pre id="dzxfz"></pre>
    <meter id="dzxfz"></meter>

      <track id="dzxfz"></track>

        <nobr id="dzxfz"></nobr>
        <em id="dzxfz"></em>

        <form id="dzxfz"><track id="dzxfz"><address id="dzxfz"></address></track></form>
          <track id="dzxfz"><dfn id="dzxfz"><cite id="dzxfz"></cite></dfn></track>
          13910160652
          010-52852558
          | |EN
          首頁 > 國際知產 > 其他 > 國際瞭望
          • 13910160652
          • ciplawyer@163.com

          人工智能平衡法案——澳大利亞政府正在考慮的潛在監管措施

          日期:2023-07-05 來源:中國保護知識產權網 作者: 瀏覽量:
          字號:

          在澳大利亞工業、科學和資源部公布了《澳大利亞安全和負責的人工智能討論文件(Safe and Responsible AI in Australia Discussion Paper)》之后,本文將詳細介紹該國政府正在考慮的各種潛在的人工智能監管措施。


          主要內容


          這份討論文件概述了澳大利亞和國際上與人工智能技術有關的監管框架。


          該文件的重點是如何確定監管措施,以確保人工智能在澳大利亞能夠得到安全、負責地開發和使用。該討論文件提出了一個潛在的風險管理框架,可用于管理與人工智能技術相關的各種風險。


          該部門正在征求各方對該討論文件的反饋意見,包括風險管理方法草案,以確定是否需要加強管理設置以應對快速的數字發展。提交反饋意見的截止日期是2023年7月26日。


          為了方便意見征詢,該討論文件共提出了20個問題,以征求對該討論文件中提出的多個主題的意見。針對這些主題或討論文件中提出的其他事項的意見應提交至澳大利亞工業、科學和資源部的咨詢中心。


          本文將對該討論文件中列出的一系列潛在的人工智能監管措施進行探討,這些措施目前正在政府的考慮之中。該討論文件建議,澳大利亞采取的監管措施必須符合以下條件:


          -確保采取適當的保障措施,特別是與高風險人工智能應用有關的保障措施;和


          -提供更大的確定性,以增強企業對人工智能解決方案的投資信心,并相信這些企業正在以負責任的方式從事人工智能活動。


          根據國際上正在實施的法規以及澳大利亞的現行框架,該討論文件列出了政府可能實施的一系列潛在人工智能監管措施。在討論文件中,這些措施按照從“自愿”到“監管”的等級進行映射,以表明哪些是法定義務,哪些可以自愿遵守。所討論的許多措施有可能會隨著時間的推移從自愿準則過渡到法定義務。這是英國在其《支持創新的人工智能監管方法》白皮書中提出的原則所采取的方法,該白皮書建議在“非法定”的基礎上頒布和實施規則,然后在最初的實施期后進行立法。


          需要注意的是,這里可能不會有“一刀切”的做法,政府達成的立場很可能是該討論文件中所探討的各種措施的組合。


          討論文件中包括以下措施:


          監管法規


          監管人工智能的一個明確的選擇是為此目的制定法律,也就是說,或者通過專門針對人工智能的特定立法,或者對現有法律進行修訂。對立法框架規定的義務的遵守是強制性的,對不遵守立法框架行為可以規定處罰和可用的補救措施。這將為尋求開發或實施人工智能系統的組織提供關于其義務和不合規后果的確定性,這反過來又將通過明確的監管框架支持公眾對人工智能的信任和信心。


          然而,值得注意的是,立法框架并不像討論文件中提到的一些其他措施那樣靈活和反應迅速。這可能導致監管負擔的增加,并且可能扼殺創新或阻止澳大利亞獲得國際開發的人工智能技術的先進成果。


          行業自我監管或共同監管


          自我監管計劃由行業通過一些行為準則或其他自愿計劃(例如類似于新加坡正在實施的人工智能標準化自我測試工具AI Verify)制定并實施。這些自我監管計劃的制定和實施通常比立法對策更快,并且可以輕松地更改,從而為人們提供更大的靈活性。


          行業自我監管可以一種“共同監管”的方式與立法相結合,允許由行業制定的準則作為立法框架的一部分,這將使自我監管準則有法定的補救和處罰措施,而不是完全靠自愿遵守。


          監管原則


          政府可以制定監管原則,以在人工智能用于監管機構監管的特定部門/行業時指導監管機構確定何時以及如何對其進行監管。這將促進監管機構在現有監管框架內解決人工智能使用問題時具有更大的監管一致性。


          監管原則通常是基于結果的,可以非常靈活地應用于廣泛的環境。從合規的角度來看,這可能會使監管原則對組織提出更大的挑戰(取決于組織解釋和遵守原則的資源和能力),但卻比其他不太靈活的替代性方案更支持創新。


          監管機構的參與


          監管機構之間加強合作將有助于確保當人工智能在多個部門/行業受到監管時,最大限度地降低由多個監管機構負責在不同情況下對人工智能進行監管而造成的合規負擔??紤]到人工智能系統的廣泛應用,這對于任何人工智能監管的有效性都可能是十分必要的(并且可以通過使用監管原則等來促進)。澳大利亞的一些監管機構已經在合作制定指南,并分享與人工智能在特定情況下的使用有關的信息。


          管理和咨詢機構及平臺


          這將涉及引入人工智能專用機構,以支持管理要求的實施,并為人工智能服務提供商和消費者提供建議。這方面的一個示例是澳大利亞國家人工智能中心的“負責的人工智能網絡”,該網絡由聯邦科學與工業研究組織(CSIRO)運營,專注于澳大利亞工業中負責的人工智能解決方案的研究。


          有利的監管杠桿


          有利的監管杠桿,旨在促進和推動創新,而不是阻礙創新。這將涉及到對人工智能技術實驗的明確框架和指導。例如,這可以通過創建“監管沙盒”來實現,這些沙箱是特定行業內的受控環境,用于實驗和創新。


          技術標準


          技術標準是由行業主導的組織內的技術專家們達成共識的設計,目的是制定通用的標準,這些標準將被用來提高系統的互操作性。這可以改善消費者結果并促進國際貿易。這些標準可以是自愿遵守的,也可以通過立法強制執行。


          保證性基礎設施和合規程序或實踐


          這些是用于測試和驗證人工智能系統以確保它們能夠符合標準或質量要求而實施的措施。例如,這些措施可能涉及評估開發人工智能系統所依據的數據質量,或要求人工智能系統達到一定程度的透明度,以確保消費者和其他利益攸關方了解支撐該系統的算法和決策。這些措施在很大程度上提高了人工智能解決方案的透明度,將有助于建立公眾對人工智能的信任和信心。


          這些保證性程序由行業或政府(或二者合作)制定,可以是自愿遵守的,也可以是通過立法規定的,可以由組織內部管理,也可以由第三方(私營或公共部門)來管理。


          指導政府運作的政策、原則或聲明


          發布和提供政策、原則或聲明的目的是提高人們對政府在使用人工智能方面的政策立場和期望的認識。這樣做的目的是增加透明度、提升公眾對政府如何使用人工智能解決方案的信任和信心,還可以通過在政府中樹立最佳做法的榜樣來影響私營部門的做法。


          透明度和消費者信息要求


          這些措施旨在通過使用諸如編制和發布人工智能影響評估,以及在使用人工智能應用程序時通知個人等方法來提高透明度。


          禁令和延緩履行令


          這些措施涉及禁止某些人工智能應用程序的流程,無論是在一般情況下還是在特定情況下。例如,一些司法管轄區正在采取行動,禁止在教育環境中使用人工智能聊天機器人ChatGPT。歐盟還提議禁止在特定情況下使用“社會評分”和“實時生物識別”。


          共教育和其他支持性中央職能


          這方面的措施指的是通過增加信息的可用性和提高認知度來鼓勵某些行為的“非監管性”選擇(即不是旨在影響企業行為的法律、原則或指南)。


          設計上的考慮


          這方面主要指在設計人工智能系統時打算實施的措施,以確保人工智能系統從一開始就是高質量、透明和安全的。這種設計方法可以是自愿選擇的,也可以是立法要求的。


          風險管理方法


          風險管理方法可用于指導上述任何措施的實施(可以是單獨的一項,也可以是多項措施相結合)。正如本文所討論的,一種基于風險的人工智能方法正在多個國際司法管轄區實施,在目前階段,澳大利亞似乎有可能會遵循這一趨勢。該討論文件包括了一份人工智能風險管理方法草案,政府正在尋求關于該草案的反饋和意見。


          這份風險管理方法草案涉及一個三級分類系統,使用以下三類進行分級管理:


          低風險:將產生有限、可逆或短暫的輕微影響。例如,基于算法的垃圾郵件過濾器、由通用的聊天機器人和由人工智能支持的業務流程。


          中風險:將產生持續且難以逆轉的較大影響。例如,由人工智能支持的貸款價值評估、緊急服務聊天機器人、用于招聘和評估員工等方面的由人工智能支持的應用程序。


          高風險:將產生系統性、不可逆轉或永久性的極大影響。例如,用于醫療程序的人工智能機器人,以及用于與安全相關的汽車部件或自動駕駛汽車以作出實時決策的人工智能。


          根據該風險管理方法草案,一個組織將考慮擬議的人工智能應用程序的風險水平,并根據所確定的風險水平規定適用于該人工智能應用程序的要求。


          在最終框架下,對人工智能系統的要求可以是上述任何措施的組合。不過,該框架草案中確定的措施示例如下:


          -開展人工智能影響評估;


          -向用戶提供關于正在實施和使用人工智能解決方案的通知;


          -使用“人機共生”的模式,這要求人工智能解決方案能夠與可以在需要時進行干預的人進行互動;


          -作出關于人工智能解決方案如何工作的公開解釋;


          -提出有關用戶培訓的具體要求;和


          -對人工智能解決方案的工作方式進行內部和外部監測和記錄。


          下一步可能發生的情況


          相關各方可按照要求進行反饋并發表意見。


          澳大利亞工業、科學和資源部正在就討論文件中提出的20個問題以及由此產生的任何其他事項尋求反饋。反饋和咨詢期開放至2023年7月26日。

          chinese中国女人高潮_欧美另类图区清纯亚洲_国产香蕉国产精品偷在线_亚洲精品综合网在线影院
          <dl id="dzxfz"></dl>

            <p id="dzxfz"></p>
          <pre id="dzxfz"></pre>
            <meter id="dzxfz"></meter>

              <track id="dzxfz"></track>

                <nobr id="dzxfz"></nobr>
                <em id="dzxfz"></em>

                <form id="dzxfz"><track id="dzxfz"><address id="dzxfz"></address></track></form>
                  <track id="dzxfz"><dfn id="dzxfz"><cite id="dzxfz"></cite></dfn></track>