在ChatGPT問世並掀起熱潮後,各界對於生成式人工智慧,可以發展哪些行業的新興應用,持續熱烈討論。其應用在文化藝術、商業服務、教育學習、法律、會計甚至醫療健康等領域,都有多元的想像空間。這些新興應用若能有效推展,各行各業已預見其營運可能產生重大改變,同時也讓各界開始反思,這一波人工智慧熱潮造成的衝擊,其範疇可能遠比過去人工智慧數十年來的發展都要來得廣泛。
過去對人工智慧探討的議題,有許多關於就業市場的衝擊。尤其在透過人工智慧達成自動化、智慧化之後,對勞動市場將造成影響;但在這一波生成式人工智慧的浪潮下,卻凸顯出新的多元議題。
首先是可信賴性,過去各界曾廣泛討論可信賴的人工智慧,但人工智慧為什麼需要被信賴?主要是因為人工智慧的應用可能與決策有關,尤其是當應用在商業、法律、教育、醫療、交通、甚至國防等專業領域時,錯誤的答案可能會帶來重大的損失,如何確保人工智慧應用所得的結果具有高度正確性,避免人工智慧所產生的錯誤結果帶來重大損失,成為發展關鍵之一。
不但可信賴性是關鍵議題,可歸責性亦然。當一般大眾使用如ChatGPT等泛用型的生成式人工智慧軟體,若因出現錯誤結果導致使用者或他人的損失,如何追究相關責任?舉例來說,若其產生的錯誤內容,透過網路傳遞,對某公眾人物造成名譽上的損害,除了傳遞者的法律責任外,相關人工智慧應用軟體開發商或營運商,是否也有應負的法律責任?未來在生成式人工智慧蓬勃發展下,其所衍生的可歸責性問題亦值得重視。
此外,利用生成式人工智慧所產生的內容、圖片、影像、聲音、甚至是軟體程式,其智慧財產權的歸屬,也是一大待解議題。若公司員工使用生成式人工智慧軟體,將其運算結果納入其工作成果,如公開的報告或文章,是否有可能侵害他人的智財權,導致公司被捲入法律訴訟?更遑論公司員工可能因使用ChatGPT等泛用、公開的生成式人工智慧軟體,導致其機密資料外洩,引起資安議題,如媒體報導,日前三星開放員工使用ChatGPT,即發生多起資料外洩事件。
更根本的問題在於,人工智慧模型的訓練,往往需要大量的資料,但相關訓練用的資料是否可信?資料的取得是否符合法律規範,如符合隱私保護原則等?企業若要發展人工智慧應用以提升營運效能,或用於新業務的開發,但企業內部有那些資料是在被有效保護的前提下,被應用於人工智慧的模型訓練?又有那些員工可以使用這些資料?授權層級如何劃分,又如何利用隱私提升技術(PETs)來強化資料的安全性等,都是需要進一步探討、解決的課題。而前述所列舉的多數課題,皆與資料治理高度相關。
也就是說,ChatGPT等生成式人工智慧發展的速度愈快,就愈凸顯出企業、產業、社會、甚至國家,在資料治理相關配套措施的不足,當然也凸顯了資料治理在未來的需求將快速增加;在人工智慧的加速發展下,資料治理幾乎是不可逆的發展趨勢。當ChatGPT的蓬勃發展帶來龐大潛在效益時,各界不但應有倫理、法治層面的配套思考與作法,更應同時加強發展資料治理相關的配套措施。
對於企業來說,目前已有企業在內部頒布關於其員工使用生成式人工智慧軟體的指引,這是發展相關配套措施的第一步。在人工智慧技術快速迭代進化下,如何能與時俱進,適時動態調整相關指引,不是只是聊備一格,而要符合相關軟體應用演進的趨勢,當為產官學研各界須持續集思廣益的關鍵議題。