法國人工智慧驅動力 Xavier Niel 正在塑造 TikTok

位元組跳動找到了一位熱衷於挑戰現有體制的董事會成員尼爾。正如 TikTok 吸引了 Instagram 和 YouTube 等公司的注意力一樣,尼爾的電信公司在 20 世紀 90 年代也是局外人,試圖與被譽為法國三巨頭的電信巨頭 Orange、SFR 和 Bouygues Telecom 競爭。他也有與競爭發生衝突的直接經驗。 2013年,Niel的ISP Free預設封鎖了所有網路廣告。此舉被視為在關於谷歌是否應付費使用免費基礎設施的談判中對谷歌的攻擊,引發了強烈反對。在那場戰鬥中,迫於政府和免費線上網站的壓力,尼爾做出了讓步。 這位億萬富翁也是多種演算法的堅定信徒。當我們在七月見面時,在他對字節跳動的任命尚未公開之前,他全神貫注於歐洲盛行的技術民族主義,而他落後於美國的成功二十年。 “我不希望我的孩子依賴美國的演算法。”尼爾說,如果有偏見,他希望這種偏見是歐洲人的。…

成人產業的內容創作者希望在人工智慧規則中擁有發言權

一群 週四,性產業專業人士和倡導者向歐盟監管機構發出了一封公開信,聲稱他們的觀點在有關人工智慧技術監管的重要討論中被忽視,儘管他們的觀點也與人工智慧的重大崛起有關。 根據信中的內容,為了回應歐洲網路法規,包括性工作者、色情電影製作人、性科技企業和性教育工作者在內的成人產業成員集體敦促歐盟委員會將他們納入未來制定人工智慧法規的談判中。 該組織包括色情電影製片人 Erika Lust 的公司以及歐洲性工作者權利聯盟活動組織,並簽署了 Open Mind AI 倡議。該組織旨在提醒委員會注意其所謂的人工智慧監管討論中的「關鍵差距」。協調該活動的人士表示,目前的討論策略可能會排除對成人內容的第一手觀點,並對已經邊緣化的社群進行過度監管。 「人工智慧每天都在發展 [and] 我們在每個角落都看到了新的發展。 。 “人們自然會轉向這項新技術來滿足他們的幻想。” 但深度造假現在已成為人工智慧的主要威脅。其中 96% 的內容包含未經同意的“色情內容”,其中大多數是婦女和女孩。奧內拉斯說,這對目標人群以及色情表演者「極其有害」。 「這對他們的人格尊嚴和生計都構成威脅,」她補充道。…

一種人工智慧模型統治所有機器人

用於控制機器人的軟體通常高度適應其特定的物理設定。但現在研究人員已經創建了一個單一通用的機器人控制策略,可以操作機械手臂、輪式機器人、四足動物,甚至是無人機。 將機器學習應用於機器人技術時面臨的最大挑戰之一是數據的缺乏。雖然電腦視覺和自然語言處理可以利用網路上的大量圖像和文字數據,但收集機器人數據既昂貴又耗時。 為了解決這個問題,人們越來越努力地匯集不同群體在不同類型的機器人上收集的數據,包括 Open X-Embodiment 和 DROID 資料集。希望對不同機器人資料的訓練能夠帶來“正遷移”,即從一項任務的訓練中學到的技能有助於提高另一項任務的表現。 問題在於,機器人通常具有非常不同的實施例(用於描述其實體佈局以及感測器和執行器套件的術語),因此它們收集的數據可能會大不相同。例如,機械手臂可能是靜態的,具有複雜的關節和手指排列,並從手腕上的攝影機收集影片。相較之下,四足機器人經常移動,並依靠腿部的力回饋進行機動。這些機器被訓練執行的任務和動作種類也多種多樣:手臂可以拾取和放置物體,而四足動物則需要敏銳的導航。 霍默沃克 (Homer Walke) 博士表示,這使得在這些大量資料上訓練單一人工智慧模型具有挑戰性。加州大學柏克萊分校的學生。到目前為止,大多數嘗試要么專注於來自較小範圍的類似機器人的數據,要么研究人員手動調整數據以使不同機器人的觀察結果更加相似。但在11 月於慕尼黑舉行的機器人學習會議(CoRL) 上公佈的研究中,他們推出了一種名為CrossFormer 的新模型,該模型可以訓練來自不同機器人組的數據並控制它們以及專門的控制策略。 「我們希望能夠利用所有這些數據進行訓練,以獲得最有能力的機器人,」沃克說。 “本文的主要進展是找出哪種架構最適合容納所有這些不同的輸入和輸出。” 如何用相同的AI模型控制不同的機器人 該團隊使用了與大型語言模型相同的模型架構,稱為變壓器。沃克說,在許多方面,研究人員試圖解決的挑戰與聊天機器人面臨的挑戰沒有什麼不同。在語言建模中,人工智慧必須在不同長度和詞序的句子中挑選出相似的模式。機器人資料也可以像書面句子一樣按順序排列,但根據特定實施例,觀察和動作的長度和順序也有所不同。…

多發性硬化症可以預防阿茲海默症嗎?

要點: 血漿生物標記數據的分析顯示,多發性硬化症 (MS) 患者的阿茲海默症 (AD) 典型澱粉樣蛋白病理學比正常患者低 50%。研究人員表示,這些發現表明 MS 對 AD 具有潛在的保護作用。 方法論: 研究人員招募了100 名多發性硬化症患者(平均年齡66.3 歲;70% 為女性),並根據年齡、性別、載脂蛋白E 蛋白型和認知狀態將他們與300 名非多發性硬化症對照者(1:3) 進行配對。 使用血漿樣本測量…

早期青光眼不會損害與視力相關的生活品質

要點: 患有原發性開角型青光眼(POAG)但沒有視野喪失的高眼壓患者與未患此病的患者相比,視力相關的生活品質並未下降。 方法論: 這項橫斷面研究納入了來自高眼壓治療研究的679 名高眼壓參與者(平均年齡73.8 歲;60.7% 為女性),他們在2016 年期間完成了為期20 年的追蹤檢查和視力相關生活品質調查和 2019 年。 其中,321名參與者開發了POAG,分為: 單側或雙側椎間盤 POAG 且雙眼均未喪失視野的患者。 單側或雙側 POAG 的患者,一隻或雙眼喪失視野,伴隨或不伴隨椎間盤變化。 儘管患有高眼壓症,但雙眼均未發生 POAG…

一個名叫詹姆斯的人工智慧機器人繼承了我以前的當地新聞工作

我曾經工作過的那家位於夏威夷考愛島鄉村的《花園島報》似乎總是很難聘請記者。如果有人離開,我們可能需要幾個月的時間才能聘請替代者(如果我們曾經這樣做的話)。 所以,上週四,我很高興看到該報似乎聘請了兩名新記者——儘管他們看起來有點不正常。在一間俯瞰熱帶海灘的寬敞工作室裡,詹姆斯(一位似乎無法眨眼的中年亞裔男子)和羅斯(一位年輕的紅發女郎,很難發音“哈納雷”和“電視”等單字)展示了他們的第一個新聞廣播,充滿脈動的音樂讓我想起 挑戰者 分數。他們的表現有一些讓人非常不舒服的地方:詹姆斯的雙手不停地顫抖。羅斯的嘴並不總是與她所說的話一致。 當詹姆斯向羅斯詢問罷工對當地酒店的影響時,羅斯只是列出了發生罷工的酒店。詹姆斯說,一個關於公寓火災的故事“提醒人們消防安全措施的重要性”,但他沒有點名其中任何一個。 您可能已經注意到,詹姆斯和羅斯不是人類記者。它們是由一家名為 Caledo 的以色列公司製作的人工智慧化身,該公司希望在來年將這項技術帶給數百家當地報紙。 “僅僅看別人讀一篇文章很無聊,”2023 年與丈夫 Moti 共同創立了 Caledo 的迪娜·夏特納 (Dina Shatner) 說,“但是看人們談論某個話題,這很有趣。” 夏特納說,Caledo 平台可以分析幾篇預先寫好的新聞文章,並將它們變成一場“現場直播”,其中包括詹姆斯和羅斯等人工智慧主持人之間的對話。雖然洛杉磯第一頻道等其他公司已經開始使用人工智慧化身來朗讀預先寫好的文章,但這家公司聲稱是第一個讓主持人互相即興發揮的平台。這個想法是,這項技術可以讓當地的小型新聞編輯室有機會進行現場直播,而這是他們無法做到的。這可以開啟嵌入式廣告機會並吸引新客戶,尤其是更可能觀看影片而不是閱讀文章的年輕人。 這些廣播下的…

人工智慧的藥物革命,第 3 部分:從頭開始製造蛋白質

這是 Medscape 關於人工智慧對藥物發現和開發的影響的三部分系列中的第三部分。 第 1 部分 是關於人工智慧在設計更快、更有效的臨床試驗中的作用。 第2部分 是關於利用人工智慧為現有藥物尋找新的應用。 如果我們告訴您,深度偽造照片背後的相同技術很快就會為您的患者帶來新的和改進的藥物,您會怎麼樣? 與其中一些照片不同,這不是假新聞。 研究人員正在藉鏡 OpenAI 的 DALL-E 等人工智慧 (AI) 模型,將文字轉換為圖像,從頭開始設計前所未見的蛋白質。這些設計可以構成未來藥物或疫苗的基礎。 納姆拉塔·阿南德博士 「我們第一次看到人工智慧系統能夠在幾秒鐘內以可控的方式產生高度真實的蛋白質結構,」生物工程師和電腦科學家…

對於重症急性胰臟炎,ChatGPT 效果如何?

要點: ChatGPT(版本 3.5)在回答有關重症急性胰臟炎治療的基於指南的臨床問題方面表現出中等準確性。 方法論: 研究人員評估了 ChatGPT 回答有關重症急性胰臟炎治療的 34 個簡答題和 15 個對/錯問題的準確性。 人工智慧(AI)工具用英語和中文進行了測試,每個問題都會問兩次以評估再現性。 兩位高級重症監護醫學專家評估了答案的準確性,第三位專家解決了任何分歧。 研究人員比較了英語和漢語回答之間以及簡答題和對錯題之間的準確率。 要點: ChatGPT 英語比中文更準確(71% vs 59%; 磷…

帕金森氏症癡呆的頻率和時間:新數據

要點: 對兩項研究的分析表明,帕金森氏症 (PD) 中的失智症發生頻率可能比以前認為的要低,或者發展的時間可能比以前認為的要長。診斷年齡的增加、男性性別和較低的教育程度是癡呆症發展的重要預測因子。 方法論: 帕金森氏症進展標記計畫 (PPMI) 和費城賓州大學 (Penn) 國立衛生研究院資助的一項研究評估了 PD 患者的長期癡呆風險。 分析包括來自 PPMI 隊列的 417 名參與者(平均年齡 61.6 歲;65% 男性)和來自…

關於 Grok AI 和您的隱私,您需要了解什麼

但 X 也明確表示,使用者有責任判斷人工智慧的準確性。 「這是 Grok 的早期版本,」xAI 在其幫助頁面上說道。因此,xAI 警告說,聊天機器人可能「自信地提供事實上不正確的資訊、錯誤總結或錯過某些上下文」。 「我們鼓勵您獨立驗證您收到的任何訊息,」xAI 補充道。 “請不要在與 Grok 的對話中分享個人資料或任何敏感和機密資訊。” Grok 數據收集 大量資料收集是另一個值得關注的領域,尤其是因為無論您是否使用 AI 助手,您都會自動選擇與 Grok 分享您的…

Recent Comments

No comments to show.

Categories