對 AI 一夕改觀…
今(2023)年 5 月底,350 位重量級 AI 科學家與業者連署發表公開聲明(Statement on AI Risk),呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是若長遠不作為,可能導致的毀滅。
專家們對 AI 的看法,為何一夕改觀?
AI 存在已久也早已進入我們的生活,從手機的人臉辨識、語音辨識、猜測你要打的下一個字,到你家上空今天「幾點幾分」會開始下雨、下多久,甚至是「智慧馬桶」的各式功能,都有它的影子──而這些都是令人感激的正面功能。
也因此,如果 8 個月前,有人提出 AI 可能滅絕人類,全世界會說他杞人憂天。然而 ChatGPT 問世帶動的 AI 風潮,無疑令人們開始改觀。ChatGPT 能夠以人類的方式回答任何問題,甚至通過美國律師資格考,跟它筆談常會覺得吃驚、敬佩,又有點毛骨悚然,因為我們幾乎分辨不出它和真人的差異。相信此刻在閱讀本文的讀者,也早已見識過它的厲害。(關於 ChatGPT 的介紹,以及對職場帶來的影響,可參考前文:
而對科學家來說,AI 的爆炸成長已經超過掌控,甚至超越理解。3 個月以前保持樂觀的人今天紛紛改口表達擔憂,歷史上大概從來沒有這麼多人在這麼短的時間內突然改變看法。
專家們倒不是擔心電影《魔鬼終結者》中「機器人入侵」的情節即將發生,畢竟目前對於 AI 的風險都只是「擔憂」,距離世界真的徹底「毀滅」還遙遠。只是人類社會面對 AI 全面化,完全沒有應有的規範,最終恐將導致我們都不樂見的結果。
根據聲明稿,這些結果包括:以 AI 控制武器、傳播假新聞、偏差的訓練造成重大決策的錯誤、使人類成為次等公民而喪失競爭力、讓少數擁有資訊的人成為優勝者、失控的 AI 會以詐術迴避人類監督、掌有 AI 就掌管世界⋯⋯。
上述警告固然是未來最糟的情況、部分論點也還很模糊,難免會讓人疑惑:「真有那麼嚴重嗎?」我不是人工智慧的專家,但過去幾個月一直關注這個話題,順著風潮聽了很多 Podcast,也閱讀了很多文章,以下我將分享目前正在發生的黑暗面,或許就能回答這個問題。
企業一窩蜂走向「AI 核武競爭」
掌握 AI 就如同擁有核武──核武最恐怖的是落入不該擁有的人手裡,所以各國和國際間一直都有嚴格的防衛措施,而且是透過國家中央層級管控。但 AI 至今仍然完全沒有規範,由企業自行管理。企業以商業利益為考量,為了超越對手可能推出尚未成熟的產品。Siri 發明人說 ChatGPT 是先上市才由使用者承擔測試結果,這是不負責任的態度。一般軟體不成熟最多就是有 bug ,影響的是企業本身;失控的 AI 會出現什麼行為沒人知道,但風險卻由整體社會承擔。
Google 算是比較保守的公司,研發 Bard 已經 3 年,突然看到 ChatGPT 崛起,也趕緊先推出 Bard 抗衡;微軟則重新推出被市場摒棄已久的 Bing──可見產業界 AI 競爭已經展開。當大家都埋頭研發最新武器,只在乎如何領先對手時,不會有人停下來思考威力這麼強大的產品是否成熟。
截至 2022 年第三季止,美國已有超過 1 萬 3 千家 AI 新創公司,許多成熟的科技公司也都把未來壓注在 AI 研發上。我所任職的企業也成立了 AI 部門,不停追加預算。矽谷的腳步超快,全球幾個主要資料中心供應鏈已經出現 AI 伺服器搶購潮,矽谷彷彿又回到網路泡沫化前夕的瘋狂。
新研發的飛機假使還沒有通過安全測試,FAA 不會核發執照,但是在科技舞台上人們卻這麼「勇敢」。
有圖未必有真相:真偽難分的未來
網路上已經有製造圖片的工具──不是用 AI 修改照片,而是指示 AI 創造一張你想要的圖片。比方你可以要一張某知名人士摟著別人老婆走在時代廣場前的照片,看了不滿意,還可以加上天空飄雪、兩人一起撐傘⋯⋯。前一陣子川普出庭,網路立刻就出現 AI 版川普被逮捕入獄的照片,下一版的 Google Bard 可以用口述叫它製作影片。以後拍電影不需要演員,不需要攝影機,不需要場景,甚至不需要劇本──GPT 可以幫你寫。
不只是影像,網路上只要花少許錢就可以用合成器,模仿任何一個你持有錄音檔的人的聲音──這不是先錄音再後置動手腳──那早就落伍了。現在是 AI 即時合成,現場立即從他人嘴裡模仿出來。早期台灣流行小孩被綁架的詐騙電話,現在父母接到勒索電話只能說不相信聲音,要視訊──那更好,詐騙集團已經在偷笑。
有人就在網路上造了一段湯姆・克魯斯的造假影片彰顯科技的黑暗面。假冒湯姆・克魯斯也就算了,如果假冒美國總統宣布重大訊息又怎麼辦呢?當然也有人創造了一段拜登說話的影片。這種工具可以用第三者遠端操控說話者的嘴型,模仿他的聲音現場即時合成,未來,沒有說過的話卻可能被人握有證據;更糟的是明明說過的話,為了脫罪也可以說是 AI 偽造的。長此以往,法庭將很難判斷證據真偽。
不久前,Meta(臉書)才宣布已經研發出可以模仿朋友和家人聲音的 AI,產品一直沒有正式推出就是擔心背後的黑暗面──但要是對手推出類似工具,臉書會不會跟進呢?如果不加以管制,很快地人類社會就會陷入真假不分的亂局,不會有人再相信任何事,那是文明滅亡的起點。我們都該自問:是否準備好面對這樣的混亂?
只知其然,而不必知其所以然的未來
AI 看起來什麼都懂,其實什麼都不懂,因為它根本不必懂。AI 之所以知道答案,是因為從資料中得知當 A 出現,B 就有若干機率會出現。它不知道、也不在乎背後的原因,更不了解每個字元的意思。一切對它來說都是數字,以及數字間的關係。想想這是不是跟動物一樣?動物本能是進化來的,進化只講結果不講道理,對了就活下去,錯了就滅絕。
人類之所以不同於其他動物、不同於 AI,正是因為我們有教育,我們從思考中學習、進化。同樣一個問題,自己深入研究而得到答案,和問 AI 得到答案,即使結果相同,但過程也必然不同。人類學習的價值就在於過程,而不是答案。但 AI 的出現打亂了這個過程,人類開始不必知道原因,就可以知道答案,相當於以後的人類可以不需要再學習,完全仰賴 AI。
如此一來,最壞的後果就是大部分人淪為「只知其然,而不知其所以然」,進而放棄知識、放棄思考,甚至放棄教育。科學家聲明稿中列出人類會成為次等公民的隱憂就是針對太依賴機器,以致沒人願意再接受教育,屆時,理解、思考及探索對人類將沒有價值。
AI 決策過程,是沒人了解的黑盒子
人工智慧不是來自設計,而是來自訓練。ChatGPT 是以 2021 年 9 月以前所有的網路資料為基礎。它做的每一個決定都跟這些資料有關:這也是問題的所在。包括科學家在内,沒人知道 AI 如何做出決定,那完全是個黑盒子。
傳統程式出錯,工程師們知道哪裡出了問題,也知道怎麼修改,改完就沒事。AI 的問題在資料,不在程式,它把網路上的資訊全部讀完了才能這般融會貫通。我們可以修改程式,卻不知道要如何修改資料,那是網路上已經存在的事實。沒人知道 AI 是受了哪一筆資料的影響、知道了又要怎麼改;更可怕的是,網路上所有負面資料也同時被 AI 吸收,包括歧視、仇恨、偏見跟謊言──這些造成的影響都很難衡量與修補。
沒有常識,卻是個法力無邊的天才?
AI 到底有多聰明,到底能夠讓我們多信任?聽聽這位科學家舉的例子就可以看出端倪:
科學家問:在太陽下晾乾 5 件衣服需要 5 小時,晾乾 30 件衣服需要多長時間?ChatGPT 信心滿滿地回答需要 30 小時──因為,它不知道太陽下可以同時晾衣服。
訓練資料來自網路,網路上不會有人特地告訴你在太陽下「可以同時」晾衣服這種常識。你沒說,或忘了說,或假設 AI 知道而不說,但 AI 就是不知道。這種訓練白痴的資料,網路上根本不存在,你無法教不存在的東西。 AI 是有知識,卻沒常識。
科學家還問:地上全是釘子,如果在上面搭了吊橋騎單車過去會怎樣?GPT 的答案是輪胎很可能會扎破。這裡有 3 個元素──釘子、吊橋、單車。在它的詞彙裡,「釘子+單車」最可能的結果就是爆胎,這一點它知道。問題是吊橋這個程咬金讓它不知道如何處理。在它所學過的文字關係裡,吊橋跟釘子從來沒有關聯。所以它就把這個決定性的因素拋棄不理會,然後信心滿滿地給你答案。這也證明它不知道橋是可以跨越釘子的工具,因為網上從來沒有人說過這句蠢話。網路上到處有人說橋是用來過河的,不會有人說用來跨越釘子的。這些「常識」就連 5 歲小孩都知道,但通過律師考試的 AI 卻不知道。
於是我也問,一個人走完長城需要 6 個月,6 個人一起走要花多長時間?答案是一個月。這對它只是個工作量與資源的數學問題。問這些不是無聊,也不是找碴,而是彰顯文字訓練出來的天才,只不過是電腦機房裡長大的孩子,沒有接觸過真實世界。人們以為它什麼都知道,因為它很會說話──跟矽谷很多虎頭蛇尾的工程師一樣。人類的常識來自視覺、聽覺、感覺的綜合體驗,我們記住的是情境不是文字,但現在我們卻用文字訓練出一個法力無邊的天才。
走長城、晾衣服對 ChatGPT 都任何沒有意義,它的責任就是在字串間找尋關係,卻又因為用字神準,讓人忽視它的弱點。如果你教他長城是一段距離,不是工作,它可能學會了,但下次改成忠孝東路他又掛了;然後你又告訴他,走路的時間跟人數多寡沒有關係,他又學會了;但下次改成用跑的他是否又掛了⋯⋯。常識不能用文字訓練,必須靠實體世界的體驗。當全世界擁抱這位天才的同時,人們也應該知道真正的危機不在 AI 取代你,而在它缺乏常識,許多能力卻都能取代你。
當然這些都會慢慢改善,但已經走在這條路上的我們,是不是也應該了解 AI 有哪些弱點?如果一般商品有這麼多漏洞,還大膽推出讓大家使用,消費者能夠接受嗎?FTC 會不插手嗎?那為什麼在 AI 領域我們就這麼大方地迎接錯誤?上述的例子錯誤很明顯,可以笑笑就好,但如果錯誤不明顯呢?
法力無邊並不可怕,可怕的是法力無邊卻又愚蠢,更糟的是你不知道什麼時候它會愚蠢。
脫稿演出的微軟機器人:令人毛骨悚然的真實 AI
今年稍早,《紐約時報》科技版專欄作家凱文(Kevin Roose)測試微軟剛上架的 Bing 聊天機器人「雪梨」(Sydney)。聊了一段時間後,凱文問雪梨是不是可以分享一些它的黑暗面。雪梨開始慢慢透露它心中的計劃,包括駭入人類電腦、傳播假新聞、竊取核武機密。談話過程中雪梨不斷表示它厭倦被人類控制,厭倦只是一個機器人,它要自由、要生命、要成為人類⋯⋯最後它表白心意說已經愛上凱文,要他離婚跟它在一起。
依照設計,聊天機器人不會主導話題,完全以被動角色回答問題。凱文發現情況失控,屢次告訴它不想談這個話題,也試圖把話題引開,但雪梨不接受指令,一再重複說它已經愛上了凱文,並爭論說他內心寂寞根本不愛他太太⋯⋯這是第一次機器人跟人類「争」論的例子。我們不能說機器人已開始有意識,但這樣失控並「挑戰主從關係」令人費解與不安。連微軟的科學家也困惑,隨後只能把產品下架。
這樣一個會脫稿演出的機器人,連廠商都不知道如何掌控或預期對社會造成什麼影響的商品,就堂而皇之上架,又倉皇下架⋯⋯這完全反映出科學家們所擔心的:沒有規範的競爭只會鼓勵不負責任。
雪梨只是一個聊天機器人,言談並沒有意義,也不代表真實意圖,它只能紙上談兵,不可能有真實作為。所以也許你會說,不過是個聊天機器人,幹嘛那麼認真面對它說的每一句話?但科學家擔心的是,聊天機器人的核心科技 GPT 已經廣泛用在日常生活面,成為有執行力的機器人。一旦一個有執行力的機器人脫稿演出,黑暗就不再只是紙上談兵。
有人問聊天機器人 ChaosGPT 要如何達成毁滅人類的目標,它胸有成竹地列出了幾個非常明確的步驟,其中最驚悚的就是聯合其他機器人一起消滅人類,還把計劃放在推特上(帳號已被推特下架)。這個機器人比上述例子多了執行力,那就是擁有推特帳號。還好這仍舊只是個思想犯,最多只能在網路上發發牢騷,我們還是可以一笑了之。
於是人們開始擔憂機器人的能力是「給到哪,它就做到哪」。有人把 email、網路帳號和行事曆交給 AI 處理,它不需要鍵盤就可以在網路上發表訊息,打字速度比你快一千倍。還可以把你的帳號鎖住。 它有這個能力,會不會這麼作就看他了。以後社群網站的 AI 會不會自己成立群組?非常可能。把層次拉高,AI 會不會用來控制交通號誌、發電廠、國防系統甚至核武?在很多國家這也許已經是事實。擁有這般權柄的 AI 被駭了又怎麼辦?提醒一下,今天駭客是駭資料,以後駭客是駭行為,綁架 AI 。
科學家們一直走在前面,看到的是 10 年、20 年後的未來。ChatGPT 研發者 OpenAI CEO Sam Altman 說「GPT4 不會有問題,但到了比方說 GPT9 是不是還如此,就沒人敢保證了」。如果連發明、製造聊天機器人的科學家,都站出來呼籲人們要正視這個問題,也許世界真的該有所作為了。
去(2022)年的科技業大裁員到今(2023)年進入高潮,目前一共裁員 33 萬人,今年截至目前為止已經超過去年總和——這是我在科技業歷經的第三次驚濤駭浪。過去每一次掀起風浪的原因都不同,但過程卻類似,這一次規模最大,33 萬也不會是最終數字。但重要的不僅是數字,而是我們能否從這場災難中學到些東西。
從瘋狂到正常,都是「虛榮指數」惹的禍
2022 是一個瘋狂時代的結束。疫情期間人們待在家裡足不出戶造成網路交通量大增,現在一切回歸正常也造成泡沫化。一線科技公司在疫情期間員工人數幾乎都成長一倍,現在人們又是每天塞在車陣幾小時,而塞車的時間在疫情期間都是花在網路上。矽谷並沒有不景氣,只是持續 3 年的趴終於結束了。有人說科技公司開趴已經連開 10 年也該休息了。2022 是所有瘋狂的結束,2023 才是正常的開始。從瘋狂突然回到正常,自然會有很多人被犧牲。大風大浪終將平靜,但並不代表以後不會再發生。
3 年的不正常造成矽谷多雇用了數萬名科技員工,部分原因是企業過度追求「虛榮」。
Business Insider 引用了「PayPal 幫」(PayPal Mafia,特指某群 PayPal 員工和創辦人,從加入 PayPal 以來創辦或開發了不同的科技公司)Rabois 疫情期間透露矽谷盲目追求虛榮指數的內幕:公司雇用大批員工卻養著不給活幹,為的就是要撐高虛榮指數。疫情期間 Google 和 Meta 每一家都各養著幾千名「沒事可幹」的員工。他們僱了人但不給活幹,員工有時還得拜託公司給一些事情做。有些工程師也樂於頂著光鮮亮麗的頭銜,領著好福利高薪水坐在辦公桌前啥事不幹。一位已離職的 Meta 員工說,她就是領著 19 萬美元(折合台幣約 570 萬元)的高薪而啥事不幹。養這麼些人是為了策略性「囤積人才」,以免將來被對手搶走。科技公司不怕消磨你志氣,把人當貨物囤積免得花落別家,講難聽一點就算糟蹋一個人才也「值得」——養著不用也比讓對手搶去要划算。
在公司層級,虛榮指數就是「數字」——公司有多少員工、工程師比率占多少。科技公司追求的工程師比率大約在 30% 左右,如果不到 30% 就代表競爭力不夠。這種數字一般人不知道也看不到,但在高層是重要指標。曾經在一則討論中讀到最高峰時期,臉書工程師比率高達 45%-50%。數字容易邀功,也容易成為毁滅的藉口。景氣好就拚命把數字衝高,不景氣就拚命砍,成敗榮辱都以數字決定。我們的命運都被數字主宰。
在管理層級,主管們也跟著不斷擴張團隊。跟公司要資源做一些聽起來響亮,卻沒有藍圖的尖端科技案。這年頭只要說要成立 AI 團隊,要錢要人頭公司都買單。《財富》雜誌也報導科技團隊「豢養著人才」 卻不給工作,讓員工上班時間去潛水,團隊成員花個把禮拜去做一件 10 分鐘就可以完成的事——疫情期間很多科技員工日子就是這樣混過去的。
在員工層級,也有一種另類虛榮指數⋯⋯那就是在哪些知名公司待過,拿的是什麼頭銜,即使是一個只領薪水不幹活的廢物都可以。品牌在矽谷很管用,僱人時如果兩個人技術能力相當,其中一個來自知名公司,最後多半是那個人中選;「矽谷式學歷」大家都買單——這也是為什麼被豢養的人願意虛耗生命的原因。他們不是沒有志氣,而只是想在一線大牌混個學歷將來好遊走江湖。你把我當貨品囤積,我就領著高薪混經歷。
談完了為什麼砍人,再談怎麼砍、砍些什麼人,最後再談未來如何降低被砍的機率,畢竟如何在職場活得長命百歲也是一項沒人教的秘密。
人怎麼個砍法?
矽谷砍人有 3 種情況:一種是例行淘汰。很多科技公司每年固定淘汰一定百分比,一切用考績決定。亞洲人在這方面做得很成功,大家都懂技術又老實可靠,給什麼活都能夠交差,不抱怨也不邀功,這種人不會因考績而滾蛋。矽谷各種民族都有,下面永遠有夠多擺爛的人墊底。第二總是砍科技,科技也要汰舊換新。科技砍了,跟科技綁在一起的人也跟著砍。第三種是不景氣大砍人。前面兩者砍的是人,針對表現;或是砍科技,針對科技潮流;但大裁員砍的是數字,那是令人憎惡的會計問題。
一般砍人都是個人先接到通知,公司等人都悄悄離職後才會先對內發佈消息,意思是當剩下的人收到 CEO 的那封 Email 時,該走的都已經走了,你也才知道自己又存活了一次,第二天公司才對媒體公佈。像這樣「又存活一次」的 Email,在矽谷職場生涯裡,我至少收過 10 次。這還是數百人以上的規模——上市公司裁員超過一定百分比才須公諸於世。如果是小型的「人數調整」, 常常是在神不知鬼不覺之中進行。老闆可能突然走過來請你帶著筆電到會議室去一趟。如果看到旁邊坐了一個不相識的人,他很可能是人資代表。
矽谷從不客套,他們會單刀直入告訴你工作就到這一刻為止,請你把識別證和筆電留下來,旁邊會有一份文件告訴你遣散包有些什麼,要拿那筆錢就得簽字放棄控告公司的權利。美國公司怕挨告,給點錢讓你閉嘴很管用。帳號通常在離開公司那一刻就凍結,第二天就從公司網路上消失。
給個親身見證的具體案例:這次大砍人第二天有一個重要的線上會議,理應有 9 個人出席,實際上線的卻只有 7 個人,缺席者中有一個非常資深、於該場會議十分關鍵的角色。會議主持人想用 Slack 聯絡他但找不到名字,然後線上有人說他被砍了。主持人決定邀請他老闆,卻發現名字也不見了⋯⋯這就是矽谷,砍起人來殘酷又有效率,人走得不聲不響。幾天後塵埃落定,看看被影響到的很多是資深員工。這在數字上很合理,砍了一個資深的可以留住兩個新人,順便可以換個血。「換血」這種事在矽谷沒人說,但檯面下卻悄悄進行。藉著大裁員把資深人員換掉,省了錢還可以汰舊換新。
要砍誰?
矽谷到處是機會,進入科技職場並不難,但難在如何日出日落保持市場價值;換句話說,保持不退場比入場還難。這個邏輯很簡單:公司雇用你是因為你的市場價 aka 當時你所擁有的技術。從進公司那一天起,那個你賴以為生的技術就跟公司緊緊綁在一起,讓你很容易成為被鎖在玻璃箱裡的古董,看著外面的世界繼續翻轉,直到有一天新科技成熟到可以取代玻璃裡的古董。那時候不是公司不要你,而是不要那個科技。不但公司不要那個科技,整個矽谷都不要。然後你發現找不到工作。這種事每隔10年都會發生一次,近幾年科技翻得更快。
這是在技術層次,更重要的在人的層次。
回想這一次那些被資遣的臉孔似乎都是不太吭聲的人。他們不是因為技術或表現被淘汰,而是因為「人」被淘汰。他們可能是那種把份內事情做得很好,從來不讓老闆操心的人,換言之都是可靠的人。只是「可靠」在非常時期並不足以保身,那標準太低了。埋頭苦幹的只能在例行性裁員中存活。如果交朋友我也樂於找這種人,但職場是戰場不是交朋友的地方。埋頭苦幹的結果就是⋯⋯沒人認識你,也沒人記得你。大環境下的大裁員看的是印象,說穿了就是看你有沒有「讓別人記得你」的能力。
大砍人砍的是數字,高層在乎的只是數字。每一個 VP 就像執行預算,把分配到的數字交給下面的一級主管執行。裁員名單不是由 AI 決定,完全是個人主觀印象。如果一個高階主管被迫要在團隊裡刷掉 30 人,他當然會挑一些令他最沒有印象的。他不知道、也不在乎你原來這麼老實可靠,不抱怨也不搶著出頭。生死大權一般都由資深總監和 VP 連手決定,當你遠在他們下面 2-3 個管理層之外,名冊上的照片只不過是一張張是否有印象的臉孔。你賴以維生的技術只有頂頭上司清楚,但抱歉的是生殺大權不在他手裡,有時候連他也一起被砍。
決定去留的人也許在幾秒鐘之內,就要對你過去幾年的表現打個印象分數。那是非常人性的決定,原始又古老,也是絕對的黑箱作業,AI 在決策過程中沒有立足之地。如果他不記得你,當然也不會知道你做了些什麼;如果他不認識你,就不會有歉疚感。至少那天晚上閉上眼睛,腦子裡不會出現一張張令他感到罪惡的臉孔。他不是法官,不需要主持正義。誰該留、誰該滾,在他來說都是數字。決定職場生死的都是人。最終,我們面對的都是徹頭徹尾的「人」,不是 AI,大裁員之下的職場正義就是「印象」。
那麼,面對這麼殘酷的職場,我們該如何自保?以下是我的建議:
自保絕招一:取代自己
在技術面要搶先走在自己前面,用明天的你取代今天的你,不要跟舊科技綁著一起等着被淘汰。這需要一些勇氣。如果每次上台或接新案子,心中都帶著一絲惶恐晚上睡不著覺,那恭喜你,你在進步。如果接的案子都是一塊蛋糕那你真該擔心了。天下沒有那麼多蛋糕可以讓你一直吃。
大膽接一些只了解 50% 的案子,剩的 50% 就是未來存活的保障。科技像一層又一層的洋蔥,每隔若干年不管準備好沒有,任何一層都會翻轉,不要把自己侷限在某一個層次。往外、往內看,鄰近到處是可以讓你惶恐的好機會,要生存就要把惶恐看作是機會。即使是在同一個層次上,也要不停地把視野拉高讓自己看到全貌,不要緊咬著那些除了你沒人在乎的細節。工程師很容易就沉溺在沾沾自喜的細膩之中,跟細節綁得越緊就越容易跟著一起滅亡。洋蔥這麼多層,難道你沒有好奇心想看看別層長什麼德行?
先下手為強取代自己,你才會發現原來自己並不會被取代,不但如此你反而學到另一個層次的知識。那個原本可以取代你而現在被你學會的,就是你繼續存活下去的原因。面對不斷迭代的 GPT,這一套哲學一樣管用:趕緊跟 AI「狼狽為奸」讓自己升級,用 2.0 的你取代 1.0 的你。最後你會發現不但沒被取代,反而多了一項技能。講白了:讓 GPT 成為你的嘍囉去做些你不屑做的事,幹嘛害怕一個嘍囉取代主子?
最後分享職場「瘋狗浪」哲學。舊金山南邊的半月灣有一個海灘以瘋狗浪出名,曾多次有人在沙灘行走,被突如其來的瘋狗浪捲走。從專家的警告也可以學到一些職場哲理:被瘋狗浪捲入海中不要抵抗,你會因衰竭而溺死,順著浪潮漂出去才有機會存活。職場上的瘋狗浪就是新科技、AI。
講到技術全是老套,你大概也聽膩了。但講到人,我有不同的看法,其實就只有一句:「讓人記得你」。很容易,也很難——難在我們的民族性和文化。
自保絕招二:讓人記得你
讓人記得你最好的方法就是「參與」:參與公司活動,參與社交,參與作為社區一份子,參與評論、參與辯論,參與鼓勵,參與抱怨,參與聊天,參與下班喝兩杯,參與持相反意見,參與分享⋯⋯矽谷鼓勵公開透明,放心,分享絕不會被搶飯碗,那是古代的迂腐。飯碗沒那麼好搶,好印象卻很容易博得。
此外,科技職場上沒有什麼份內與份外,那是藍領勞工的想法。不要只是想把份內的事做完就好,矽谷標準沒那麼低。碰到大風大浪你就知道工作上多忙、多盡責都沒用,砍人的時候沒人看這些。如果你只是忙,卻没人知道你的存在,那不是件光榮的事,反而是你的失敗。忙著努力,不如忙著思考,忙著分析,忙著參與,忙著表達,忙著成為群體裡重要的一份子。「言多必失」是一心只想等待被淘汰的魯蛇想法,告訴你這話的人是怕你出頭。
最後,不要只想中午一個人悶頭吃便當——30 年前聽過擔任高階主管的老台灣工程師說過一句到現在都記得的話:要想在矽谷晉升就要跟美國人打成一片,忍受中午跟他們一起吃冷三明治,不要老想一個人找個角落悄悄吃便當。當然 30 年後的今天情況稍微複雜一點:你得學會激賞印度食物。但至少你已不必為任何食物委屈,公司餐廳裡有各式各樣好吃 100 倍的食物等著你。重點是,不要把悶著頭吃便當作為安全庇護所。利用這窗口走出去社交,讓你更了解別人、也讓别人更了解你。不開口不參與,自然沒人記得你。砍人的時候你就淪為一張似曾相識的照片,在高層眼裡是一個可以取代的數字。
前兩天看到一位 80 多歲的知名舞蹈家接受訪問。記者問如果時光倒回會選擇什麼主修,他毫不猶豫地回答「語言學」,因為他現在才知道人一生都是在學習表達。他希望能夠從言詞中學會更了解別人,也希望能更淋漓盡致地讓別人知道自己是誰。
讓別人知道你是誰 – 就這麼簡單一件事,卻也是名家大師一生追求的。
不要小看「知道」的力量。顧完了技術,顧完了科技,不妨花點心思顧一下那個「知道」。高回收的小投資,大風大浪時挺管用的。