Alexa

科技業裁員潮、OpenAI開發一句話自動變影片!與其怕被生成式AI取代,不如善用它

科技業裁員潮、OpenAI開發一句話自動變影片!與其怕被生成式AI取代,不如善用它
撰文: 台大科教中心CASE報科學/李密     分類:智慧城市經濟     圖檔來源:台大科教中心 日期:2024-02-17

今周刊編按:全球價值最高的科技新創公司之一OpenAI,最新估值達860億美元,近日OpenAI開發出新AI模型Sora,可根據文字提示生成長達一分鐘的短影片。

現今的生成式AI功能越來越強大,也有越來越多人擔心自己的工作將會被AI取代。在職場工作中,我們該如何運用、定位AI,才能讓自己「不會被AI取代,但同時能善用AI協助工作呢」?我們又該培養怎麼樣的能力來應對全新的AI時代呢?

本場講座邀請到呂欣澤、李怡志兩位老師,與主持人陳素燕老師,和觀眾們一同討論「生成式AI如何協助我」?

迎戰人工智慧浪潮!訓練你的生成式AI成為工作助力

 

2023年7月,好萊塢編劇及演員工會發起43年來第一次罷工,包含梅莉史翠普、珍妮佛勞倫斯等人都在罷工行列中,與串流平台、電影公司僵持對峙,抗議生成式AI可能被用於生成劇本、創建演員肖像,以數位化表演形式,侵犯甚至取代原本的藝術工作。

 

隨著生成式AI的問世與快速演進,全球引發一連串AI取代部分職業的思考與疑慮。美國賓州大學研究指出,80%美國勞動力中,10%工作任務將受到影響;而約20%工作者將面對至少50%工作任務與大型語言模型 (LLM) 相關。

 

面對各方擔憂,擅長實證研究的清大學習科學與科技研究所陳素燕教授於本期探索講座指出,歐洲學者已提出應重新將創造力「概念化」,學習處理並運用AI模型與系統,並應用在創造的過程。

 

講座邀請政治大學新聞系助理教授李怡志、政治大學創新國際學院助理教授呂欣澤,帶領聽眾一同重新建構生成式AI認知、熟悉人工智慧運作流程,並拆解人類心智活動與工作流程,分享如何將生成式AI應用於工作場域,使科技成為工作助力而非阻力。

 

與人工智慧共好:拆解工作流程與人類心智活動

 

不同於過往多數人對科技的認知與想像,ChatGPT透過拆解問題,提供相應的客製化答案,並在無數次的訓練中自主學習環境感知,進一步優化服務。

 

李怡志教授以人工、自動、遙控、自動化、自主以及智慧,將取代人力的方法劃分為六種。自動為機器代勞部分人力工作,遙控則包含部分設定與指令,例如定時洗衣、煮飯。而自動化則如洗衣機透過秤重,自動評估放水量,啟動與大部分工作決策依然仰賴人為。

 

自主則是沒有指令的自動化,擁有少許自主學習能力,而更進一步的AI即是智慧,如人腦般能依據資料自主學習。

 

透過解構各職業工作流程,即可以尋找機器代勞的機會,將部分工作內容以自動、自動化等更高效率的方式完成。「人類是複雜的機器,我們所處的環境是依照人類的外型與行為被創造。」李怡志教授認為,儘管人工智慧發展快速,但以機器全面取代人類依然不容易,因為機器並不為環境所創造。而分解人類複雜的心智活動,並逐一檢視工作任務,就是判斷此工作是否能由人工智慧協助運作的方法之一。

 

以收發電子郵件為例,包含郵件清單、內文閱覽以及回覆信件,每一階段都是複雜的心智行為,涉及優先順序判定、決策、情感反應、自我調節等。

 

普遍電子郵件系統能協助判定基礎信件篩選、分類,然而取代程度有限,實際判斷的效果也並非完全正確,被判定為垃圾信件依然可能藏有重要訊息。在拆解人類於每一個工作步驟中的心智流程後,再判定工作所需的資訊處理類型,以及希望人工智慧生成的結果,例如分叢、排序、摘要、分類等等。

 

李怡志教授強調,大型語言模型中許多的資料類型為意見而非資訊,提供意見又是職場中不可或缺的任務。因此,如果能善用大型語言模型提供觀點與蒐集意見的能力,就能負擔部分工作。

 

而觀點又可分為本質觀點、對抗觀點、水平觀點、互動觀點、垂直觀點以及專業觀點。例如透過設計適當指令,訓練大型語言模型提供一個不易回答的問題(對抗觀點),並回答前述問題,就能釐清並使事件分析更加圓滿。

 

細細拆解工作任務、流程,接著辨識人工智慧可完成的工作,並保留人最擅長執行的部分,透過重新設計工作流程,再依照自動化、自主以及智慧的等級規劃,便能使人工智慧在工作場域中實現最大效益。

 

教學場域的轉型:培養解構問題的生成式AI應用力

 

雖然人工智慧是在ChatGPT席捲全球後被廣泛認識,但呂欣澤教授在講作中釋疑,不同於人工智慧1.0是透過將大量照片輸入電腦學習,再丟入大型神經網路中運作;生成式AI其實是更進一步的人工智慧2.0,能夠透過演算法辨識資料並進而生成、創造對應的物件。

 

不過,隨著生成式AI被廣泛應用,也陸續衍生多起著作權爭議。2022年美國科羅拉多州藝術博覽會,名為《太空歌劇院》的畫作打敗眾多參賽作品,一舉奪得數字藝術類別冠軍。不過因為該作品事後才被披露為AI製圖工具Midjourney生成,且法院判定作者必須投入創作,因此最終作者並沒有成功取得著作權。

 

此外,因為人工智慧是經由大量的資料訓練生成相對應的結果,不免受到資料中原先就存在的偏見影響,因此也面臨偏見再製的擔憂與疑慮。

 

儘管人工智慧的影響一體兩面,但也無法阻礙各行業將AI納入工作流程的嘗試。呂欣澤教授引用Linkedin報告說明,產業與人工智慧的關係大致可分三個類,首先是受益於生程式AI (augmented by GAI),如資料分析師能運用AI協助撰寫程式,其次是因生成式AI受擾亂 (disrupted by AI) ,如翻譯員被取代部分翻譯工作。

 

最後則是與AI隔絕 (Insuiated from GAI),例如房產經紀人因為工作核心價值是客戶關係,因此不容易被取代。研究也指出,Z 世代求職者越來越被要求須具備使用生成式AI的能力。

 

呂欣澤教授以身處的教育界為例,當生成式AI進入校園後,人對高級語言的壟斷不再,生成式AI既可以協助產出教材,是否有天教師的角色也會被取代?呂欣澤提醒,面對生成式AI進入校園的速度比驗證教科書更快,甚至不需被驗證,監控與驗證人工智慧產出的角色就更加重要

 

在課堂中,為了能使學生可在任何時段詢問程式問題,呂欣澤導入聊天機器人Evangelos,只要學生在Line中詢問問題(方便蒐集學生問題),即可以連至ChatGPT 4(進階版),問問題的時間也不再只限縮於Office hour,有效提升回覆效率。

 

而Evangelos也能透過授課影片的輸入,生成對應課堂內容的問題,透過Line即時生成測驗,進一步強化學習效果。面對ChatGPT能提供程式作業解答的挑戰,呂欣澤也改變出題技巧,選擇將教學重點與目標改為解構題目技巧,教導學生如何從根本上拆解問題,並運用人工智慧解決問題。

 

Trust but Verified!解決GPT的幻想力

 

講後,面對觀眾提問使用人工智慧可能帶來的倫理與風險,陳素燕教授指出,生成式AI基於訓練模型,可能會因文化中的偏見、語言理解偏差產出錯誤資料,因此使用生成式AI時,必須抱持「Trust but Verified」的心態,積極運用第三方工具驗證結果。

 

呂教授則建議於結果標註生成式AI為資料來源,提醒他人也再次驗證資料。而李教授提議,透過連接擁有龐大資料基礎的資料庫,透過庫存問答檢驗結果。也因應生成式AI開始節省算力,使用者應調整指令,要求執行三至四個循環,提高資料的成熟度與準確性。

 

總結來說,儘管現今可透過生成式AI提供的訊息大幅降低工作量,也因將AI視為輔助的學習夥伴 (learning partner),而非百科全書,教師更應知道如何引導學習,協助使用者了解並學習生成式AI實際運作的過程,以避免偏離原先使用目的。

 

本文轉載自台大科教中心CASE報科學網站,原文請點我