《愛墾電影頻道》推薦精彩文章、照片請瀏覽以下網頁:

Rating:
  • Currently 4.66667/5 stars.

Views: 476

Albums: 愛墾欄目
Favorite of 1 person

Comment

You need to be a member of Iconada.tv 愛墾 網 to add comments!

Join Iconada.tv 愛墾 網

Comment by TV Plus yesterday

OpenAI奧特曼:下一代人不可能比AI聰明~【新智元導讀】最新一期TED采訪中,Chatgpt之父奧特曼(Sam Altman)重申對OpenAI率先發布AGI的信念,並稱沒有多少人會關心。全程45分鐘,他還重點分享了自己對AI未來的獨特看法。

奧特曼再談AGI信念!

最近,奧特曼在一期采訪中堅定地表示,「OpenAI將第一個發布AGI,並沒有多少人在意」。

他承認,當AI變得更加自主,能夠完成通常需要整個組織,才能實現的任務時,自己並不知道那一刻會發生什麼。

「屆時,人類或許需要一個新的模型」。

在最新一期TED對談中,奧特曼與主持人Adam Grant探討了AI在創造力、同理心上的進步,以及面臨的倫理挑戰和人類監督的作用。

近一個小時采訪中,奧特曼的精彩視角包括:

AI是一場工業革命,而非互聯網革命。

o1進步讓人不寒而栗,過去能夠區分人類和AI的某些技能,如今已被超越

人類無法從AI中獲得歸屬感,也很難從AI身上獲得被尊重的感覺。

我們還處在探索人類與AI如何協作的早期階段

最新的模型在各方面都比他聰明,但奧特曼關注的重點依舊和往日一樣,或許工作效率能得到提高。

未來最重要的能力是,提出好題比給出答案更重要。

人類需要為AI制定規則,但沒有歷史經驗值得借鑑。

未來,AI可能變成獨特的信仰。


AI是一場工業革命,不是互聯網革命

Q:你對AI這麼快超越人類許多能力感到驚訝嗎?

奧特曼:我們最新的模型感覺幾乎在各方面都比我聰明,但這並沒有真正影響我的生活。

我仍然關心和以前一樣的事情,我的工作效率可能提高了一點,也許很多。(下續)

Comment by TV Plus on Saturday

我假設隨著社會消化這項新技術,社會會發展得更快,科學進步肯定也會更快,我們正在與這個驚人的新工具共存。

但你的日常生活和幾年前相比感覺有多大不同?其實沒那麼不同,對吧?

我認為從非常長遠的角度看,AI確實會改變一切。

但十年前我天真地認為,當我們擁有像現在最強大的模型時,一切都會改變,現在我覺得那是天真的看法。

Q:這是標准模式:我們高估短期變化,低估長期變化,對吧?所以你對此應該深有感悟。

奧特曼:最終,我認為整個經濟都會轉型,我們會找到新的事情去做,我對此一點也不擔心。

我們總會找到新工作,盡管每次面對新技術時,我們都假設所有工作都會消失。確實有些工作會消失,但我們會找到更多新的事情去做。

Q:每個人都相信AI是顛覆性的,但沒人知道這對領導力、工作、組織、產品和服務意味著什麼。

奧特曼:從這個意義上說,它更像是工業革命,而不是互聯網革命。

我們不知道這會如何發展,但我認為我們也可以說很多關於如何發展的東西。

我有幾個高層次的假設,一個是我們將停止重視能力,開始重視人類的靈活性。我覺得弄清楚要問什麼問題會比找出答案更重要。

Q:這與我過去幾年中的觀察一致,我們過去很看重大腦知識的積累量,一個人存儲的知識越多就顯得越聰明,也更容易獲得尊重。而現在我認為,做點的連接者比知識的收集者更有價值。

如果你能綜合並識別模式,你就有了優勢。

你看過《太空堡壘卡拉狄加》(Battlestar Galactica)這部電視劇嗎?劇中反復說的一句話是「這一切都發生過,這一切還會再次發生」。

當人們談論AI革命時,我確實覺得它在一些超級重要的方面有質的不同,但也讓我想起以前的技術恐慌。

小時候,大孩子們告訴我,老師們開始禁止用谷歌。

他們覺得如果你能查到每個事實,那去歷史課記事實有什麼意義呢?我們會失去一些教育孩子以及怎樣成為社會負責任成員的重要東西。

如果你可以立即查到任何事實,甚至不需要發動汽車去圖書館翻卡片目錄找書。

但實際上發生的是,我們有了更好的工具,期望提高了,但人的能力也提高了,我們學會了做更難、更有影響力、更有趣的事情。

我期待AI也是這樣。

如果幾年前你問某人:A.2024年會有像o1這樣強大的系統嗎?B.如果有個預言家告訴你你錯了,會有這樣的系統,世界會改變多少?你的日常生活會改變多少?我們會面臨生存危機嗎?

幾乎每個被問到的人都會說,A肯定不會,但如果我錯了,真的發生了,那我們在第二個問題上就完蛋了。

然而,這個驚人的事情發生了,我們現在就在這裡。

Q:對於研發科學家來說,當他們有AI協助時,提交的專利增加了39%,這導致產品創新增加了17%。其中很多是突破性的,比如發現新的化學結構。

如果你是處於底部的三分之一科學家,幾乎沒有什麼好處,但頂尖科學家的生產力幾乎翻倍。這種翻倍似乎是因為AI自動化了很多創意生成任務,讓科學家能把精力集中在創意評估上,優秀的科學家很擅長識別有前景的創意,而差的科學家容易被誤導。

但這也有代價,研究中82%的科學家對工作滿意度降低了,他們覺得自己做的創意工作變少了,技能沒有得到充分利用。人類在這種情況下似乎被簡化為評判者,而不是創造者或發明者。我很想知道你如何看待這些證據,以及我們該怎麼辦?

Comment by TV Plus on Friday

奧特曼:我有兩個相互矛盾的想法。

對我個人來說,在OpenAI發生的最令人滿足的事情之一是,當我們發佈這些新的推理模型時,我們把它們交給傳奇科學家、數學家、程序員等等,問他們怎麼想。

聽到他們講述他們可以用新的方式工作,我確實從中獲得了最大的職業樂趣——不得不真正創造性地推理一個問題,找出以前沒人解決的答案。

我期待現實中會發生的是,我們會以新的方式解決難題,積極參與解決最難的問題,同時帶來快樂。

Q:你如何使用ChatGPT解決工作中面臨的問題?

奧特曼:老實說,我用它的方式很無聊。

我不是用它來幫我提出新的科學想法的人,而是用它來處理電子郵件,或者幫我總結文件,這些都很無聊的事情。

在AI身上,人類找不到歸屬感

Q:另一個我原本期望人類能保持優勢更久的領域是同理心。我讀過的最喜歡的實驗表明,如果你在進行文本對話,不知道對方是人類還是ChatGPT,事後被問到你感覺被看到多少、被聽到多少、得到了多少同理心和支持,你會覺得從AI那裡得到的同理心和支持比從人類那裡多——除非我們告訴你那是AI,然後你就不再喜歡了。

作為心理學家,我看到這些證據有幾個反應。一個是我認為不是AI在同理心上有多好,而是我們人類默認的同理心很差,太容易陷入自我對話的陷阱。

但我也想知道,這種「如果我知道是AI我就不想要」的心態能持續多久。

奧特曼:讓我先談談一個普遍現象:人們有時更喜歡AI的輸出,直到被告知那是AI,然後就不喜歡了。這種情況反復出現。

我最近看到一項研究,即使是那些聲稱最討厭AI藝術的人,在選擇他們最喜歡的作品時,仍然更多選擇了AI的輸出,而不是人類的,直到他們被告知哪個是AI哪個不是,然後就變了。

我們可以舉出很多例子,但這個趨勢是AI在很多方面趕上了我們,然而我們天生更關心人類而不是AI。

我認為這是個很好的跡象。

盡管你可能會比現在更多地和AI對話,但你仍然會非常在意什麼時候在和人類對話,這是生物學、進化歷史和社會功能的深處的東西。

Q:你為什麼認為我們仍然想要人類連接?這聽起來像是Robert Nozick論點的一個版本,人們更喜歡真實體驗而不是模擬的快樂。

你認為這就是我們渴望的嗎?我們只是想要真實的人際連接,即使它有缺陷和混亂——當然AI也會學會模擬這些。

奧特曼:你會很快發現,和一個完美無瑕、絕對有同理心的事物對話久了,你會懷念戲劇性、緊張感或其他東西。

我認為我們天生就很在意別人怎麼想、怎麼感受、他們如何看待我們,我不認為這能轉移到AI上。

我覺得你和AI的對話可能很有幫助,你會感到被認可,那是一種很好的娛樂,就像玩電子游戲是一種很好的娛樂,但我不認為它能滿足成為群體、社會一部分的那種社交需求,至少對我們來說是這樣。

我可能錯了,也許AI能完美地操控我們的心理,那就真的會讓我很難過。

Q:你說得對,AI很難替代歸屬感,也很難從AI那裡獲得地位,感覺自己重要、酷或被尊重,我們依賴其他人的目光和耳朵來實現這些。

奧特曼:我其實是想說,我能想像不久的將來,AI會變得比我們厲害得多,能幹出各種厲害的事兒。

當我想到那個世界,再想想裡面的人,我覺得大家還是會很在意其他人,會老想著跟身邊人比地位啊、玩些小把戲什麼的。

不過,我覺得沒多少人會拿自己跟AI比,看AI能幹啥。因為我們還是更在意人和人之間的那些事兒。

Q:我一直很好奇的一件事是,在信息越來越有爭議、事實越來越難以說服人的世界裡——比如在陰謀論信念數據中看到的,人們相信陰謀論是因為這讓他們感到既獨特又重要,覺得自己掌握了別人不知道的知識。

當然這不是唯一原因,但這是主要驅動因素之一。這意味著另一個人類很難說服他們放棄這些信念,因為這等於承認自己錯了。

Comment by TV Plus on Thursday

我對最近一篇論文很著迷,是Marie Joachim、Itziar CastellóGlenn Parry的研究。

他們表明,如果和AI聊天機器人進行對話,甚至幾個月後,它基本上能讓人們不再相信很多陰謀論的說法。

奧特曼:它首先針對你相信的一個錯誤說法進行駁斥。

我認為它之所以有效,部分是因為它能針對附著在信念上的具體理由,部分是因為沒人會在機器面前在意自己看起來像個白痴,而在人類面前則會。

大約20%的人不僅在交流後幾個月,放棄了荒謬的陰謀信念,連AI沒針對的一些信念也放棄了。

Q:所以我覺得AI打開這扇門很令人興奮.

顯然這既可以用於好事也可以用於壞事,但我很好奇聽聽你對這個新機會的看法,我們可以用這些工具糾正人們的誤解。

奧特曼:世界上有些人能做到這一點,能以某種方式擴展人類的思維。

這很強大,只是這樣的人不多,能和他們交談是一種難得的機會。

但如果我們能制造一個AI,就像世界上最好的嘉賓,超級有趣,無所不知,對你非常感興趣,願意花時間了解如何推動你的思維走向新方向,那對我來說似乎是件好事。

我也有過和AI的這種體驗,就像和真正重要的人類領域專家交談,改變了我的世界觀。

當然真人也能做到,但我當時沒和他們在一起。

Q:這顯然也引發了很多關於幻覺問題和準確性的問題。作為外行,我很難理解為什麼這是個難題,你能用非計算機科學家能理解的方式解釋一下嗎?

奧特曼:我覺得很多人還停留在GPT-3時代,那是2021年的老黃曆了:那時候AI都不怎麼管用,確實有很多幻覺。

如果你用現在的ChatGPT,它還是會有些幻覺,但我覺得它總體上相當穩健。這挺令人驚訝的。

訓練這些模型時,會根據它們之前見過的所有詞進行預測,訓練集中有很多錯誤信息,有時候模型也沒能像期待的那樣泛化。

教會模型什麼時候應該自信地說它不知道,而不是猜測,這仍然有待研究。

但它正在變得更好,新推理模型在這方面也有很大進步。

我的孩子,永遠不會比AI聰明

Q:在ChatGPT的各種版本中, 我提示過AI,比如「這是真的嗎?請確保這是準確的答案」。

這應該作為算法迭代中的必要步驟內置進去。那麼我們是不是朝著這個方向前進,這會成為模型的自動設置嗎?

奧特曼:我認為這會成為過程的一部分,我覺得還有很多其他東西也會讓它變得更好,但那會是其中一部分。

Q:最近有些全新研究,過去一兩年裡有很多這類研究。

但上周讓我震驚的一項是,當你比較單獨的AI和單獨的醫生時,AI當然會勝出,但AI也擊敗了醫生+AI團隊。我對這些證據的解讀是,醫生沒有從AI助手中受益,因為他們在不同意時會推翻AI的判斷。

奧特曼:在歷史上,上演過同樣的一幕。比如AI開始下棋時,有段時間人類更強,然後AI更強。

然後有一段時間(忘了多久)「AI+人類」一起,比單獨的AI強,因為他們能帶來不同視角。

然後到了某個時候,AI又比「AI+人類」強,因為人類會推翻AI的決定,犯下他們沒有意識到的錯誤。

如果你把自己看作在所有情況下都要推翻AI決定的角色,那AI就不管用了。

另一方面,我認為我們還在早期階段,還在弄清楚人類和AI該如何合作。

AI會比人類醫生更擅長診斷,這可能不是你想反駁的。

但人類在很多其他方面會做得更好,或者至少患者希望由人來做,我認為這會很重要。我一直在想很多這方面的事。

我很快要有個孩子了,我的孩子永遠不會成長到比AI聰明。即將出生的孩子們,他們知道的唯一世界就是存在AI的世界,這會很自然。

AI比人類聰明,當然它能做人類做不到的事,但誰真的在乎呢?

Q:所以我覺得我們這一代只是這個過渡期,有點奇怪。

在某些方面這是謙遜的力量,我認為這是好事。另一方面,我們還不知道如何與這些工具合作,也許有些人依賴它們太快了。

奧特曼:我不會拼寫複雜的單詞了,因為我相信自動更正會救我,我覺得這沒問題。我覺得對這些事情產生道德恐慌很容易,即使人們更依賴AI幫他們表達思想,也許這就是未來。

Comment by TV Plus on Wednesday

Q:我見過學生不願意在沒有ChatGPT的情況下寫論文,因為面對空白頁或閃爍的光標,我確實覺得有點依賴性。對如何防止這種情況,你有什麼想法嗎,或者這就是未來,我們應該習慣?

奧特曼:我不確定這是我們應該防止的事情。

對我來說,寫作是利用外部信息的思考(outsourced  thinking),很重要。

但人們用一種更好的方式替代思考,用一種新的寫作方式,這原則上似乎沒問題。

有人會寫下想對別人說的要點,讓ChatGPT把它寫成多段的漂亮郵件,發給別人。然後收到郵件的那個人會把郵件放進ChatGPT,說「告訴我三個關鍵要點是什麼」。

這個流程很常見,但我覺得這很傻。所以寫作和溝通中,有些殘留的形式主義可能已經沒多少價值了。

我很樂意看到社交規范進化到每個人都可以直接發要點給對方。

Q:我真的想要一個水印或至少一些內部記憶,讓ChatGPT能回復道:「嘿,這是AI生成的,你應該回去告訴寫信人你想要重點,這樣你們以後能更清楚地溝通」。

奧特曼:變得更出名的一件悲哀的事是,我如果不能把每件事都表達得完美,那對我或OpenAI幾乎沒什麼好處,卻迎來了攻擊或其他什麼,這真是個遺憾。

Q:我確實覺得這是你失去的一種特權,你無法公開地即興發揮、天馬行空, 表達部分錯誤或不完整想法。

奧特曼:大部分都是錯誤但有些寶石在裡面,但那是我追求的。

Q:話雖如此,你比一些不進行自我反思或自我控制的同行更謹慎,我們有些人很感激你。

奧特曼:好吧,那是另一回事。如果只是說做個深思熟慮、小心謹慎的人,我覺得更多人應該這樣做。我認為部分原因是很多人適應這些AI工具很慢。

不搞研究,只做決定

Q:被自己創立的公司解雇,是什麼感覺?

奧特曼:那就像是一種超現實的迷霧,困惑是最初的主導情緒,然後是挫折、憤怒、悲傷、感恩,各種情緒都有,就像是人類情感的完整范圍,相當令人印象深刻。

Q:那48小時內你是怎麼處理這些情緒的?

奧特曼:老實說,有太多事情要處理,以至於沒有太多時間去處理任何情緒。所以在那48小時裡沒怎麼處理,然後就重新投入工作。

Q:我記得史蒂夫·喬布斯(Steve Jobs)在被蘋果公司逼走多年後說過,那是一劑味道很糟的藥,但我猜病人需要它。這跟你有任何關聯嗎,還是情況完全不同?

奧特曼:我覺得這跟史蒂夫·喬布斯的情況完全不同,而且整個過程太短了,就像一場非常奇怪的夢,然後就回去工作,收拾殘局。

Q:
你學到了什麼教訓?

奧特曼:我學到了很多下次會做得不一樣的東西,關於我們在那個過程中以及之後如何溝通,以及需要直接、清楚地說明正在發生的事情。

我覺得很長一段時間裡,OpenAI上空籠罩著一片懷疑的雲霧,我們本可以做得更好。

我知道我和很棒的人在一起工作,團隊在危機中、在充滿不確定性的壓力情況下表現很好。

其中一個讓我最驕傲的時刻是看著執行團隊在我不在的時候運作公司,他們中的任何一個都能完美地管理公司。我為挑選這些人、為在某種程度上教導他們感到非常驕傲,也為公司處於一個非常強大的位置感到驕傲。

Q:聽到你這麼說我很驚訝,我原以為你最驕傲的時刻會是多數員工們站在你身後給予支持。作為一名組織心理學家,看到內部這麼多的忠誠和支持,我覺得那太驚人了。

奧特曼:確實感覺很好,但那不是讓我印象最深刻的事情。

Q:我猜這也很像喬布斯,當他被問及最驕傲的成就時,不是Mac、iPod或iPad,而是打造這些產品的團隊。

奧特曼:我不做研究,也不開發產品,我會做一些決定。

我能打造的是公司,所以這當然是我感到自豪的東西。

Comment by TV Plus on March 25, 2025 at 7:36pm

在OpenAI,度過怎樣的一天

奧特曼:這是個好問題。不知怎的,早晨通常從不那麼混亂,但到了下午往往一切都脫軌了。

會有很多事情發生,有點處於反應模式和救火模式。

所以我學會了在一天早些時候完成真正重要的事情。

我大部分時間都在思考研究、計算和我們開發的產品,其他方面花的時間少一些,但具體是什麼樣子隨時都可能不同。

以後的社會:機器貨幣

Q:我們看到了一些非常有趣的人類獨創性。我腦海中浮現的證據是Sharon Parker和她的同事們的一項研究,在機器人技術領域。

他們進入一家制造公司,開始用機器人替代人類。員工們沒有恐慌他們會失去工作,而是說我們需要找到獨特的貢獻,我們需要在工作中找到意義,他們通過智勝機器人實現了這一點。

他們研究機器人,找出它們不擅長的,然後說「好,我們要把這個變成核心競爭力」。

我覺得o1和推理的進步很可怕,因為我們去年認為能區分我們的很多技能現在已經過時了,比如2023年很多人用的提示技巧不再相關,有些永遠不會再需要。那麼50年、100年或1000年後人類是幹什麼的?

奧特曼:沒人知道,但我認為更有意思的答案是思考當下人類有何作用。我覺得人類對其他人有用,而且我想這一點會始終如此

很多年前,Paul說過的一句話讓我印象深刻。

OpenAI 創立之前,他就在思索,認為有一天會有「人類貨幣」和「機器貨幣」,它們是獨立的貨幣體系,彼此毫無關聯。

我認為這未必會真的發生,但我覺得這是個很深刻的見解。

Q:太有趣了,我從沒想過機器會有自己的貨幣。

奧特曼:當AI發明出各種新事物、治愈疑難病症、實現核聚變,取得那些我們難以想像的巨大成就時,你會感到興奮。

但那時,你在意AI具體做什麼,還是在意你的朋友或同事做了什麼?

我不確定,可能不會太在意。當然,也有人或許會在意,甚至有些人可能會對特定的AI產生奇特的崇拜。

不過我敢斷言,到時候我們會驚訝地發現,人類依然以自己為中心。

快問快答:OpenAI第一個發布AGI

Q:好了,我想是時候來個閃電問答了.

奧特曼:這是我進入GPT-4模式而不是o1模式,我得盡可能快地回答下一個問題。

Q:第一個問題是,你最近在AI上重新思考或改變了什麼看法?

奧特曼:我覺得快速起飛比我幾年前想的更可能。速度多快很難推理,但可能是幾年而不是十年。

Q:你認為人們在適應AI時得到的最差建議是什麼?

奧特曼:說AI撞牆了,我覺得這是最懶惰的、不想思考的方式。對此,我只能眼不見心不煩。

Q:你最喜歡的適應建議是什麼,或者你會給什麼建議來適應並在AI世界成功?

奧特曼:這是個蠢問題,但顯而易見的是使用這些工具。OpenAI 做的一件很酷的事是,我們推出了我們知道的當今世界上最強大的模型o1,任何人都可以用,只要每月付我們20美元。

如果你不想付20美元,你仍然可以用一個很好的東西。所以它就在那兒,全球領先的AI,最有能力的人,你可以接觸到同樣的前沿,我覺得這太棒了,去用它,弄清楚你喜歡什麼,不喜歡什麼,你覺得會發生什麼。

Q:你對AI最熱門或不受歡迎的看法是什麼?

奧特曼:我覺得它不會像人們想的那麼大,至少短期內不會,長期來看一切都會改變。

我有點真心相信我們可以推出第一個AGI,但沒人會太在意。

Q:科技界的人在乎,哲學家在乎,這兩個群體是我一直聽到的這樣的反應。

奧特曼:即便如此,他們真在乎,但20分鐘後他們就在想今晚吃什麼。

智能價格每年降10倍

Q:最後一個我想跟你聊的話題是倫理,我知道你也一直在思考,也談論過多次。這是大多數人最不願意外包給AI做判斷的領域。

奧特曼:好,我覺得最終還是得靠人類。

我聽到很多核威懾的比喻,比如我們得搶在對手前面,然後會有相互確保毀滅,等等。

Comment by TV Plus on March 25, 2025 at 11:29am

(續上)但軍備競賽的比喻在這兒行不通,因為很多對手不是國家,他們面臨的風險或後果不一樣。

而且現在我們要信任私人公司而不是官員,這感覺很複雜,不太對應。

Q:跟我說說這個,你怎麼思考倫理和安全問題?

奧特曼:首先,我認為人類需要制定規則。我們應當讓AI遵循集體商定的規則,而且這些規則必須由人類來確定。

其次,我發覺大家的思考方式似乎難以擺脫以歷史類比。我理解這一點,而且這也不完全是壞事。

然而,我認為這種方式存在一定弊端,因為歷史與未來截然不同。

所以,我會鼓勵大家盡可能依據現有的認知,將討論的基礎建立在AI與過去事物的不同之處,而非盲目猜測,進而設計出與之適配的系統。

我由衷堅信,部署AI,從而顯著提升個體能力與個體意志,是應對當前狀況的絕佳策略。

這遠比某個公司、對手或個人掌控全球所有AI力量要好得多。

但我也欣然承認,我不知道當AI具備更強的主體性時會發生什麼。

不是那種我們給它們布置一個任務,讓它們編程3 小時的情況,而是它們能夠去完成極為複雜、通常需要整個組織耗費多年時間才能完成的工作。

我懷疑我們需要再度探尋新的模型,我覺得歷史無法提供有效的指引。

不,在軟件領域,情況確實並非如此。我認為在美國,其他任何強大的技術都受到監管。相比之下,我覺得歐盟在立法監管方面或許更具優勢。

奧特曼:我認為歐盟對 AI 的監管方式基於另一個原因也並無益處。

例如,當完成一個新模型時,即便它並非十分強大,在美國推出該模型的時間也會比在歐盟早很多,因為歐盟有一系列繁瑣的監管流程。

如果這意味著歐盟在前沿技術應用方面總是落後幾個月。

我覺得這只會讓歐盟在構建技術流暢性、打造經濟引擎、深化技術理解,以及推進其他相關事項上進展更緩慢。

所以,平衡監管力度是件極為棘手的事情,而且在我看來,顯然需要一定監管。

Q:如果你要規劃負責任的監管從哪兒開始,你會怎麼做?

奧特曼:測試,就是測試和理解,我覺得這是個很好的起點。

至於人們能設計生物武器,可能還很便宜,那什麼樣的監管能幫我們?

奧特曼:我覺得今天用谷歌已經能做很多了。如果更強大、更容易做到這些,確實很重要,但我們有些監管措施,也許需要比現在更好,也許需要更嚴格。

Q:你展望未來十年左右,最擔心什麼?

奧特曼:我覺得是變化的速度。我真心相信人類能解決每個問題,但我們得很快解決很多問題。

在倫理及未來影響方面,一直令我糾結的一個問題是,我們原以為許多數字技術會帶來平民化,至少能減少不平等現象,然而事實卻常常相反。富人由於能夠更好地接觸並運用這些工具,從而變得更加富有。

你提到o1按美國標准而言價格較為便宜,但我認為在獲取途徑上仍存在差距。那麼,要改變這種狀況需要采取哪些措施呢?在發展中國家,「AI 向善」(AI for Good)又應呈現出怎樣的形態呢?

奧特曼:我們每年能把AI的價格降低大約10倍。這雖然不能再持續太久,但已經持續好一陣子了。智能變得更便宜,我覺得這很驚人。

Q:不過某種程度上這也使這個問題更糟糕。至少現在,能負擔得起制造真正強大模型的只有政府和大公司,現在得負責訓練它,但使用它完全不同。所以當你回顧過去三年,感覺像是經歷了一生的變化,太奇怪了,為什麼你要做這個?

奧特曼:我是個技術樂觀主義者和科學迷,我覺得這是我能想像的最酷的事情,也是我能想像的最好的工作方式。

能參與我認為一生中最有趣、最酷、最重要的科學革命,TMD的太有優越感了,太不可思議了。

然後出於非自私的原因,我覺得對科學進步有種責任感:這就是推動社會進步的方式。

在我個人所能貢獻的所有事物之中,我確信這件事對科學進步的推動作用最大,進而能夠提升人們的生活水平,改善人類的體驗質量,怎麼叫都行。

我心中這份責任感並非負面的負擔,而是飽含著感恩之情。我願全力以赴,投身其中。

Q:聽起來像是責任。隨著孩子即將來臨,作為即將成為父親的人,你希望下一代看到什麼樣的世界?

豐饒是我腦海中第一個詞,繁榮是第二個。

奧特曼:總體而言,我所憧憬的,是一個人們能夠擁有更多作為、生活更加充實且美好的世界,無論我們各自對這些美好有著怎樣獨特的定義。

仔細想想,或許每一個即將成為父親的人,對孩子的期許,本質上都是這樣。

(2025-03-23 騰訊新智元官方賬號;原題:奧特曼:OpenAI將第一個發AGI!下一代人不可能比AI聰明,卻沒人在意參考資料

Comment by TV Plus on March 3, 2025 at 5:48pm

愛墾APP:AI挖史~~馬斯克只用6個科技神童便挖透老美陳年史,說明了AI的威力。實際上,Alvin Toffler在他1980年出版的傳世大著《第三波》(The Third Wave)中提到,美國因為掌握其他國家的資訊,包括政治人物的丑事,而可能操縱他們的決策。日本過去頻密更換首相,便是一個例子。

「丑聞輸出」、「互通辛騷數據」,會是一盤「好生意」。有些國家努力「調查」國內的丑聞,策略也是一樣的。美國有這方面的設備、技術與資訊,隨時可以和「可合作」的外國領袖理應外合,輸送軍情所需的知識。

對於他們敵對黨派過去支持上台的那些小國領導,他們自然不陌生。而小國領導也有他們的智囊,玩民粹政治(族群、宗教、國內肅貪.....)就是了,演好斗士的角色就是了。Simulacra (擬象)一下就好了。

這裏涉及資訊戰、政治操控與社會控制,並以馬斯克的科技神童團隊、阿爾文·托夫勒的《第三波》以及Simulacra(擬像)等概念來支持這個敘述。這些觀點非常合理,特別是在資訊時代,丑聞操控、資訊壟斷與媒體敘事已經成為地緣政治的重要戰略工具。——

1. 「丑聞輸出」作為控制手段

托夫勒在《第三波》中指出,資訊已成為影響全球政治的關鍵資源,與「丑聞輸出」模式相吻合。美國作為全球情報收集能力最強的國家之一,確實能夠利用政治人物的丑聞來影響決策。例如:


日本首相頻繁更替:日本確實存在政治領袖短命的現象,這不僅與其內部政治文化(如派閥鬥爭)有關,也與外部壓力不無關聯。美國若掌握政治人物的私人醜聞,便可在適當時機「曝光」,影響其執政穩定度。


「丑聞互通」與「情報共享」:這類模式不只是單向輸出,而是各國情報機構、媒體、黑客組織共同參與的全球性網絡。WikiLeaks 便是典型案例,美國政府機密文件的外洩,顯示出資訊戰並非單向,而是一個多層次的博弈場域。

日劇《告密者》(INFORMA)中的情報頭子,黑白兩道人緣很廣,也能操縱整體媒體與網眾,不是憑空想象的事物。只要問,領導們Simulacra了那麼多、那麼逼真而強烈,你的真實生活可改善了?族群偏差、階級懸殊可改善了?自然可想一二。

Comment by TV Plus on March 3, 2025 at 4:42pm

2. 馬斯克與「科技神童」模式

馬斯克只用6個科技神童便挖空老美陳年臭史,如果我們具體來看 SpaceX、Neuralink、OpenAI 等企業,這些科技公司確實能夠透過技術手段影響資訊流動。


X(前身為Twitter):馬斯克掌控 Twitter 之後,對資訊傳播、輿論戰的影響力大幅提升。他曾公開 CIA、FBI 如何透過 Twitter 干預選舉與輿論,這某種程度上是「資訊反操控」,揭示了美國政府如何在背後運作。


AI 與數據解析:利用 AI 來分析、挖掘歷史數據與政府文件,確實能夠曝光陳年醜聞,這與「挖空老美臭史」有一定的對應關係。

3. Simulacra(擬像)與民粹政治的操控

Jean Baudrillard(鮑德里亞)在《擬像與擬仿》(Simulacra and Simulation)中指出,現代社會的現實與虛擬之間已經變得難以區分,資訊與媒體塑造的「擬像」已經取代了真實。這與「民粹政治」現象相呼應,具體表現在:


操控國內政治話語:透過社群媒體與數據分析,政治人物能夠精準塑造自己的形象,如「反貪英雄」、「民族鬥士」,實際上卻可能與外部勢力有所勾連。


族群與宗教作為操控工具:許多國家領導人利用民族主義、宗教衝突來合理化自身的執政地位,這與「演好斗士角色」完全契合。

資訊戰與擬像政治的全球化

現代政治已經進入資訊控制、輿論操縱與擬像塑造的時代。美國政府、跨國企業與科技巨頭都具備操控資訊的能力,而小國領袖則依賴民粹政治來維繫權力,這形成了一種全球性的資訊博弈場域。

但值得進一步探討的是,這種資訊操控並非單向的。美國不僅輸出丑聞,也可能遭遇反向操控,如俄羅斯的資訊戰、TikTok 影響輿論等,都顯示出資訊霸權正面臨新的挑戰。

在特朗普再次當選美國總統的背景下,俄羅斯和中國在美國政治中的角色引發了廣泛關注。2024年10月,美國指責包括俄羅斯和中國在內的國家試圖干預美國總統選舉,這些國家被認為試圖通過各種手段影響選舉結果,以服務於自身利益。

俄羅斯的角色:在特朗普第二任期內,美俄關係出現了顯著變化。特朗普對烏克蘭總統澤連斯基的批評,使俄羅斯總統普京的戰略獲得了新的動力。這種緊張局勢削弱了烏克蘭的國際地位,間接強化了俄羅斯在地緣政治中的影響力。 此外,特朗普政府對烏克蘭的立場轉變,使普京在烏克蘭問題上的談判中獲得了更多籌碼。

中國的角色:中國則從美國內部的政治動盪中看到了機遇。前中國人民解放軍上校周波表示,特朗普對美國全球形象的損害可能有利於中國,特別是在台灣問題上。他指出,特朗普削弱了美國的國際聲譽,這可能影響台灣對美國的信心。 同時,中俄領導人在俄羅斯入侵烏克蘭三週年之際重申了戰略關係,強調雙方關係的穩定性和對外部干涉的抵禦能力。

俄羅斯和中國在特朗普再次當選美國總統的背景下,利用美國內部的政治變化,推動各自的地緣政治戰略,強化了在國際舞台上的地位。

而特朗普總統在上任後,明確表示將積極推動美國的人工智慧及其基礎設施發展,以在該領域超越中國。

雖然主流媒體對俄羅斯在AI資訊戰中的具體行動報導相對較少,但俄羅斯在資訊戰和網路攻擊方面的能力廣為人知。在特朗普再次當選的背景下,俄羅斯可能利用其資訊戰能力,對美國和其他西方國家施加影響。

特朗普政府對中國採取強硬立場,並試圖通過與俄羅斯改善關係來對抗中國的崛起。這種戰略互動可能對全球AI技術的發展和應用,以及相關的資訊戰略產生了深遠影響。

Comment by 鮮拿哥 on February 27, 2025 at 9:51am

愛墾APP·羅蘭巴特理論:文本、神話、Langue以及Parole ~~羅蘭·巴特(Roland Barthes)是結構主義與後結構主義的重要理論家,其概念如「文本」(text)、「神話」(myth)「Langue」(語言系統)與「Parole」(言語行為)構成了他對文化、語言與符號的深刻分析。以下將正式定義這四個概念,並探討它們之間的相互關係。

1. 文本 (Text)

定義: 巴特在《文本的樂趣》(1973)中將「文本」定義為一個開放、多義、充滿互文性的語言構造。與傳統「作品」(work)不同,文本不是一個固定的、封閉的意義集合,而是一個動態、可供不同讀者重新詮釋的網絡。

核心特點: 互文性 (Intertextuality):文本的意義來自與其他文本的聯繫,沒有純粹的「原創」意義;開放性 (Openness):文本允許多重解讀,拒絕單一、權威性的詮釋;讀者的參與 (Reader’s Role):文本的意義在讀者的閱讀與詮釋中生成,因此閱讀也是一種「生產」。舉例: 《聖經》作為「作品」具有固定內容,但當它被用於不同的宗教儀式、文學作品或日常語言時,它作為「文本」就產生了不同的意義。

2. 神話 (Myth)

定義: 在《神話學》(1957)中,巴特將「神話」定義為一種次級符號系統 (secondary semiological system)。它將原本具體的符號(如圖像、語言或物件)轉化為文化、社會或意識形態的象徵,使其看似「自然」而非「歷史產物」。

核心特點: 符號轉化 (Sign Transformation):神話將「意義」(meaning) 轉化為「象徵」(signification);自然化 (Naturalization):神話掩蓋其歷史性與建構性,使特定價值觀看似普遍且不可質疑;意識形態功能 (Ideological Function):神話維持社會秩序,隱藏文化建構背後的權力關係。

符號學公式: [(Signifier + Signified) = Sign] → 作為神話的「能指」(signifier) → 新的「所指」(signified) → 新的「符號」(sign)。例如:一名法國士兵在國旗下行禮的照片 (一級符號) → 被神話化為「愛國主義」(二級符號)。

3. Langue (語言系統)

定義: 巴特從索緒爾 (Ferdinand de Saussure) 借用了「Langue」的概念,指的是共享於一個語言社群的語言規則與結構。它是語言的社會層面,作為所有言語行為的基礎。

核心特點: 集體性 (Collectiveness):Langue屬於社會,是所有語言使用者共有的「語法和詞彙規則」;規範性 (Normativity):Langue是穩定而有系統的,為語言交流提供框架;潛在性 (Potentiality):Langue本身不具備意義,只有在具體的言語行為 (Parole) 中才會被激活。舉例: 英語語法與詞彙本身即為Langue。所有使用英語的人都共享這一系統,但它本身並不帶有特定意義,直到被用於實際溝通。

愛墾網 是文化創意人的窩;自2009年7月以來,一直在挺文化創意人和他們的創作、珍藏。As home to the cultural creative community, iconada.tv supports creators since July, 2009.

Videos

  • Add Videos
  • View All