看板 Stock
這家就沒誠信的垃圾公司啊 惡名昭著 怎麼會有人信啦 公司創辦人Amodei兄妹 是OpenAI原核心成員 因為擔心Open醬過度商業化 違背初衷 跳出去自己開 標榜的就是超乎水准的道德層次(? 結果呢 在競爭中為獲取訓練資料 到"盜版網站"大挖特挖 幹,你沒看錯 他們直接到盜版網站去挖 需要付費的非公開資料 人家其他企業挖網路公開資料 還可以說遊走道德邊緣 這都已經很臭了 何況他們這麼直接搶非公開資訊 毫無下限可言啊 最終賠了15億美金 遇到競爭、利益就被背棄承諾 呵呵 真的世界靈活的道德底線啦 講話跟放屁一樣 信誰都好 跑去信這種前科重大的 腦子不要了 ※ 引述《breathair (拆了?簡單了)》之銘言: : -------------------------------發文提醒---------------------------------- : 1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處分。 : 2.發文請依照格式文章標明段落,不符合格式者依 1-2-1 處分。 : 3.連結過長請善用縮網址服務,連結不能點擊者板規 1-2-2 處分。 : 4.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3 處分。 : ------------------------ 按ctrl+y 可刪除以上內容。 ---------------------- : 原文標題: : Statement from Dario Amodei on our discussions with the Department of War : 原文連結: : https://www.anthropic.com/news/statement-department-of-war : 發布時間: : 2026年2月26日 : 記者署名: : ※原文無記載者得留空 : 原文內容: : I believe deeply in the existential importance of using AI to defend the Unite : d States and other democracies, and to defeat our autocratic adversaries. : Anthropic has therefore worked proactively to deploy our models to the Departm : ent of War and the intelligence community. We were the first frontier AI compa : ny to deploy our models in the US government’s classified networks, the first : to deploy them at the National Laboratories, and the first to provide custom : models for national security customers. Claude is extensively deployed across : the Department of War and other national security agencies for mission-critica : l applications, such as intelligence : analysis, modeling and simulation, operational planning, cyber operations, and : more. : Anthropic has also acted to defend America’s lead in AI, even when it is agai : nst the company’s short-term interest. We chose to forgo several hundred mill : ion dollars in revenue to cut off the use of Claude by firms linked to the Chi : nese Communist Party (some of whom have been designated by the Department of W : ar as Chinese Military Companies), shut down CCP-sponsored cyberattacks that a : ttempted to abuse Claude, and have advocated for strong export controls on chi : ps to ensure a democratic advantage. : Anthropic understands that the Department of War, not private companies, makes : military decisions. We have never raised objections to particular military op : erations nor attempted to limit use of our technology in an ad hoc manner. : However, in a narrow set of cases, we believe AI can undermine, rather than de : fend, democratic values. Some uses are also simply outside the bounds of what : today’s technology can safely and reliably do. Two such use cases have never : been included in our contracts with the Department of War, and we believe they : should not be included now: : Mass domestic surveillance. We support the use of AI for lawful foreign intell : igence and counterintelligence missions. But using these systems for mass dome : stic surveillance is incompatible with democratic values. AI-driven mass surve : illance presents serious, novel risks to our fundamental liberties. To the ext : ent that such surveillance is currently legal, this is only because the law ha : igence and counterintelligence missions. But using these systems for mass dome : stic surveillance is incompatible with democratic values. AI-driven mass surve : illance presents serious, novel risks to our fundamental liberties. To the ext : ent that such surveillance is currently legal, this is only because the law ha : s not yet caught up with the rapidly growing capabilities of AI. For example, : under current law, the government can : purchase detailed records of Americans’ movements, web browsing, and associat : ions from public sources without obtaining a warrant, a practice the Intellige : nce Community has acknowledged raises privacy concerns and that has generated : bipartisan opposition in Congress. Powerful AI makes it possible to assemble t : his scattered, individually innocuous data into a comprehensive picture of any : person’s life—automatically and at massive scale. : Fully autonomous weapons. Partially autonomous weapons, like those used today : in Ukraine, are vital to the defense of democracy. Even fully autonomous weapo : ns (those that take humans out of the loop entirely and automate selecting and : engaging targets) may prove critical for our national defense. But today, fro : ntier AI systems are simply not reliable enough to power fully autonomous weap : ons. We will not knowingly provide a product that puts America’s warfighters : and civilians at risk. We have offered : to work directly with the Department of War on R&D to improve the reliability : of these systems, but they have not accepted this offer. In addition, without : proper oversight, fully autonomous weapons cannot be relied upon to exercise t : of these systems, but they have not accepted this offer. In addition, without : proper oversight, fully autonomous weapons cannot be relied upon to exercise t : he critical judgment that our highly trained, professional troops exhibit ever : y day. They need to be deployed with proper guardrails, which don’t exist tod : ay. : To our knowledge, these two exceptions have not been a barrier to accelerating : the adoption and use of our models within our armed forces to date. : The Department of War has stated they will only contract with AI companies who : accede to “any lawful use” and remove safeguards in the cases mentioned abo : ve. They have threatened to remove us from their systems if we maintain these : safeguards; they have also threatened to designate us a “supply chain risk” : —a label reserved for US adversaries, never before applied to an American com : pany—and to invoke the Defense Production Act to force the safeguards’ remov : al. These latter two threats are : inherently contradictory: one labels us a security risk; the other labels Clau : de as essential to national security. : Regardless, these threats do not change our position: we cannot in good consci : ence accede to their request. : It is the Department’s prerogative to select contractors most aligned with th : eir vision. But given the substantial value that Anthropic’s technology provi : des to our armed forces, we hope they reconsider. Our strong preference is to : continue to serve the Department and our warfighters—with our two requested s : afeguards in place. Should the Department choose to offboard Anthropic, we wil : l work to enable a smooth transition to another provider, avoiding any disrupt : ion to ongoing military planning, : operations, or other critical missions. Our models will be available on the ex : pansive terms we have proposed for as long as required. : We remain ready to continue our work to support the national security of the U : nited States. : 達里奧·阿莫代(Dario Amodei)關於我們與戰爭部(Department of War)討論的聲明 : 2026年2月26日 : 我深信,利用人工智慧來保衛美國及其他民主國家,並擊敗我們的獨裁對手,具有攸關存 : 亡的重要性。 : 因此,Anthropic 一直積極主動地將我們的模型部署到戰爭部和情報界。我們是第一家在 : 美國政府機密網路中部署模型的前沿 AI 公司,是第一家在國家實驗室部署模型的公司, : 也是第一家為國家安全客戶提供客製化模型的公司。Claude 被廣泛應用於戰爭部和其他 : 國家安全機構的任務關鍵型應用中,例如情報分析、建模與模擬、作戰計畫、網路行動等。 : Anthropic 也採取行動捍衛美國在 AI 領域的領先地位,即使這違背了公司的短期利益。 : 我們選擇放棄數億美元的收入,切斷了與中國共產黨(其中部分被戰爭部列為中國軍方企 : 業)相關之公司使用 Claude 的管道,關閉了中共支持、企圖濫用 Claude 的網路攻擊, : 並倡導對晶片實施嚴格的出口管制,以確保民主國家的優勢。 : Anthropic 充分了解,做出軍事決定的是戰爭部,而非私人企業。我們從未對特定的軍事 : 行動提出異議,也未曾試圖以臨時、隨意的方式限制我們技術的使用。 : 然而,在少數情況下,我們認為 AI 可能會破壞而非捍衛民主價值觀。有些用途也完全超 : 出了當今技術能夠安全、可靠執行的範圍。有兩個此類應用從未包含在我們與戰爭部的合 : 約中,我們認為現在也不應包含在內: : 大規模國內監控:我們支持將 AI 用於合法的對外情報和反情報任務。但將這些系統 : 用於大規模國內監控與民主價值觀背道而馳。由 AI 驅動的大規模監控對我們的基本自由 : 構成了嚴重且前所未見的風險。儘管目前此類監控在某種程度上是合法的,但這只是因為 : 法律尚未跟上 AI 能力的快速發展。例如,根據現行法律,政府可以在未經授權的情況下 : ,從公開來源購買美國人詳細的行蹤、網頁瀏覽紀錄和社交關係紀錄;情報界已承認這種 : 做法引發了隱私疑慮,並在國會引發了跨黨派的反對。強大的 AI : 使得將這些分散的、單看似乎無害的個人數據,自動且大規模地拼湊成任何人生活的完整 : 輪廓成為可能。 : 全自動化武器:部分自動化武器(如今日在烏克蘭使用的武器)對捍衛民主至關重要 : 。即使是全自動化武器(即完全將人類排除在決策迴圈外,自動選擇並交戰目標的武器) : ,未來也可能對我們的國防至關重要。但時至今日,前沿 AI : 系統的可靠性還不足以驅動全自動化武器。我們不會明知故犯地提供會讓美國戰士和平民 : 陷入危險的產品。我們曾提議直接與戰爭部合作進行研發,以提高這些系統的可靠性,但 : 他們沒有接受這項提議。此外,若沒有適當的監管,就不能指望全自動化武器能發揮我們 : 訓練有素的專業部隊每天所展現的關鍵判斷力。它們的部署需要配備適當的安全防護機制 : (guardrails),而這些機制目前還不存在。 : 據我們所知,迄今為止,這兩個例外情況並未成為我們武裝部隊加速採用和使用我們模型 : 的障礙。 : 戰爭部已聲明,他們只會與同意「任何合法用途」並移除上述情況中安全機制的 AI 公司 : 簽約。他們威脅,如果我們保留這些防護機制,就會將我們從其系統中剔除;他們還威脅 : 要將我們列為「供應鏈風險(supply chain risk)」(這個標籤通常只保留給美國的對 : 手,從未應用於美國公司),並威脅動用《國防生產法》(Defense Production Act)來 : 強制我們移除這些安全機制。後面這兩個威脅本質上是矛盾的:一個將我們標記為安全風 : 險;另一個則將 Claude 標記為對國家安全不可或缺的要素。 : 無論如何,這些威脅都不會改變我們的立場:憑著良知,我們無法同意他們的要求。 : 選擇最符合其願景的承包商是戰爭部的特權。但鑑於 Anthropic 的技術為我們的武裝部 : 隊提供了巨大的價值,我們希望他們能重新考慮。我們強烈希望在保留這兩項防護機制的 : 前提下,繼續為戰爭部和我們的軍人服務。如果戰爭部選擇與 Anthropic 解約,我們將 : 努力協助平穩過渡給另一家供應商,避免對正在進行的軍事計畫、行動或其他關鍵任務造 : 成任何干擾。只要有需要,我們的模型將繼續根據我們提出的廣泛條款提供使用。 : 我們隨時準備好繼續我們的工作,以支持美國的國家安全。 : 心得/評論: : Anthropic 拿到國防合約 : 正式將OAI 大到不能倒的敘事結束 : 這兩家只會有一家留著的話 : 應該是利好亞麻 : OpenAI 應該也有被通知接收 : 而這篇宣告就是控制輿論來讓戰爭部不敢解約給OpenAI的目的 : 任何人接受戰爭部的合約都等於間接承認監控人民,除了Anthropic : PLTR還有的跌 : ----- : Sent from JPTT on my iPhone ----- Sent from JPTT on my iPhone -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.40.244.152 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1772156797.A.A8F.html ※ 編輯: pujos (114.40.244.152 臺灣), 02/27/2026 09:50:14
capssan : 關我屁事?他就最頂啊,付錢是買服務不是買道德 02/27 09:51
LoveSports : 我不會因為你罵人腦子不要了 就推論你會無差別殺人 02/27 09:53
tr920 : 現在全世界的ai code agent都在跟claude code抄作 02/27 09:54
tr920 : 業,事實證明他就是業界指標 02/27 09:54
kitune : 不然要信你? 02/27 09:54
Chricey : 想問一下有沒有關節痛的運動禁忌?怕動得更嚴重… 02/27 09:54
Gipmydanger : 該怎樣就怎樣,該賺錢就賺錢,該賠錢就賠錢。 02/27 09:54
liliumeow : 還會客戶ip跟行為等資訊判斷要不要在你api亂回 毫無 02/27 09:55
liliumeow : 底線 02/27 09:55
lusifa2007 : 可是它模型真的很強啊 目前長文本整理 寫程式最強 02/27 09:56
Chricey : UC2對膝蓋特別有用嗎?有人能證實嗎? 02/27 09:56
lusifa2007 : 沒有之一 02/27 09:56
ab4daa : $$$$$$$$$$$$$$$$$$ 02/27 09:58
dayuer : c就超強啊,grok、gemini還有最爛的chatgpt都在亂 02/27 10:00
dayuer : 回覆的時候,只有c完成了任務。 02/27 10:00
Chricey : 關節痛睡覺就能治了,吃什麼UC2 02/27 10:00
pujos : 小偷靠偷來資料訓練,完整度更好有什麼疑問嗎? 02/27 10:02
pujos : 他們的競爭就靠偷跟搶 02/27 10:03
pujos : 結果現在打道德底線這張牌,精神不分裂嗎? 02/27 10:03
mamorui : 可是Anthropic主要是攻程式員領域的 一般不寫程式 02/27 10:04
Kroner : 關節痛睡覺就能治了,吃什麼UC2 02/27 10:04
mamorui : 的用不到 02/27 10:04
LoveSports : 我遇過有人在網上偷我的畫說是自己的 還有遇過自稱 02/27 10:07
LoveSports : 粉絲然後把我寫的小說架構跟劇情搬去用的 02/27 10:07
LoveSports : 而且還出書 我不會說她們都會變成殺人犯 02/27 10:07
Kroner : 搞笑吧!關節痛,你能嚴重點嗎?我要讓你知道什麼叫真正的痛! 02/27 10:07
Kroy : 監控人民跟盜版是不同議題 02/27 10:07
LoveSports : 其中一個還北一女的 有寫信向我道歉 02/27 10:07
LoveSports : 抄襲剽竊要跳躍到前科重大 完全的邪惡 好像跳太大 02/27 10:08
mamorui : Anthropic引領AI Agent發展大功臣 不會有人因此討 02/27 10:09
Chricey : 想問一下有沒有關節痛的運動禁忌?怕動得更嚴重… 02/27 10:09
mamorui : 厭這家公司 02/27 10:09
LoveSports : 但我懂有些人對剽竊很敏感有道德潔癖 尊重你的看法 02/27 10:09
mamorui : 知道你這個資料和解15億新聞多數怎麼看嗎? 是毛利 02/27 10:09
mamorui : 受影響 我之前也別的留言提過Suno因為跟華納和解要 02/27 10:09
Chricey : 我有在用UC2,感覺效果還不錯欸! 02/27 10:09
mamorui : 支付版權費 我也很誠實結論說這樣會影響毛利 02/27 10:09
LoveSports : 你這種人對創作者來說是很重要的存在 02/27 10:10
pujos : 錯了,我完全認為剽竊、偷竊是小事,完全不值一提, 02/27 10:12
pujos : 但一間標榜道德的企業 跑去偷、搶,那才是大條的 02/27 10:12
Chricey : 樓上UC2當糖吃,天天走拿飛 02/27 10:12
pujos : 這代表,道德兩個字在他們眼裡,只是廣告標籤一部份 02/27 10:13
pujos : ,愛貼貼,不想貼就撕掉,沒有底線 02/27 10:13
mamorui : 在股版看到道德問題,而且還是因為AI偷資料的,狗 02/27 10:14
mamorui : 狗都不敢掛保證沒偷了,看怎麼和解跟要付多少錢去 02/27 10:14
Chricey : UC2推薦?有人試過嗎?靠譜嗎? 02/27 10:14
mamorui : 和解,不然Suno這樣AI音樂模型,早就因為用了版權 02/27 10:14
mamorui : 音樂訓練模型這種行為在股版被罵翻了 02/27 10:14
LoveSports : 他們當初離開OPENAI不是因為安全疑慮嗎? 02/27 10:14
lusifa2007 : 就事論事 小偷就不能反對監視人民哦 你這三小邏輯 02/27 10:15
Chricey : 吃過關節保健品,都沒什麼效果,有推薦的牌子嗎? 02/27 10:15
mamorui : 馬斯克有說OAI的安全疑慮很高 02/27 10:15
LoveSports : 看起來現在顧慮安全問題很一致阿? 02/27 10:15
LoveSports : 我覺得問題比較大的是前幾天他們公司修改安全政策 02/27 10:18
mamorui : 道德問題可以重視啊 重點是股版用道德當利空 通常 02/27 10:19
Kroner : 關節痛有人有有效的復健方法嗎? 02/27 10:19
mamorui : 道德意思是對於展望或財報不老實 這篇關於Anthropi 02/27 10:19
mamorui : c這個資料引用未經同意事件直到和解 在其他類似事 02/27 10:19
mamorui : 件就Suno也是跟華納和解了 我提出更貼近股版重視的 02/27 10:19
mamorui : 觀點 02/27 10:19
Kroner : 關節痛這種東西,比鬼還可怕! 02/27 10:19
LoveSports : 原本有寫顧慮安全問題會延緩具有潛在危險的AI開發 02/27 10:19
LoveSports : 前幾天他們公司把這條刪掉了 這個新聞很大條 02/27 10:19
LoveSports : 各家國外主要媒體都有報導 02/27 10:20
LoveSports : 就算這次跟美國國防部的事情能全身而退不被報復 02/27 10:20
Kroner : 樓下關節痛都吃鞏固力 02/27 10:20
LoveSports : 也許之後在民間商業使用上出事也說不一定 02/27 10:21
mamorui : 我前幾天看到新聞說,如果Anthropic拒絕國防部,他 02/27 10:21
mamorui : 們模型可能會被強徵,說不定修改安全策略是因為這 02/27 10:21
mamorui : 個 02/27 10:21
Kroner : 長時間坐著工作,關節痛越來越嚴重,該怎麼辦?推薦UC2 02/27 10:21
LoveSports : 修改這條的話順應被強徵嗎? 02/27 10:22
mamorui : 竟然拒絕美國防部就可能會被強徵….所以我就很在意 02/27 10:22
mamorui : CEO的做法 畢竟主流是讓全世界工程師受惠的AI模型 02/27 10:22
LoveSports : 修改這條順應被強徵嗎?(上面那行多打兩個字) 02/27 10:23
Chricey : 樓下關節痛都吃鞏固力 02/27 10:23
LoveSports : 不過這很詭異 如果真的不讓底線為何要修改那條 02/27 10:23
LoveSports : 希望不是立貞節牌坊 02/27 10:23
mamorui : 不知道說 看是為了聽話才改? 02/27 10:23
mamorui : 然後我可以順便分享Suno模型在華納版權要求介入後 02/27 10:29
Chricey : 關節痛有人有有效的復健方法嗎? 02/27 10:29
mamorui : ,2026年開始的新模型生歌表現(不是COVER曲那種) 02/27 10:29
mamorui : 也變弱,我要花比較多的設定跟編改才會得到我在202 02/27 10:29
mamorui : 6年之前模型要的水準,網路上也不少猜測模型改弱成 02/27 10:29
mamorui : 這樣的理由是這樣,當然我也猜可能是算力不夠導致 02/27 10:29
Chricey : 有人知道UC2和其他關節保健品的差異嗎? 02/27 10:29
mamorui : Cloude會不會模型表現受影響,類似鎖AI能力表現導 02/27 10:31
mamorui : 致好用度下降,都可以關注,如果企業級合作的模型 02/27 10:31
mamorui : 能力反而有受惠,就會關注合作案 02/27 10:31
LoveSports : 剛才問Claude他說是為了不讓沒底線的AI公司領導業界 02/27 10:31
Chricey : 想問一下有沒有關節痛的運動禁忌?怕動得更嚴重… 02/27 10:31
LoveSports : 調定產業步調 這麼說好像有道理 02/27 10:31
LoveSports : 因為如果沒底線的AI公司是最強大的 其他也會跟進 02/27 10:31
LoveSports : 也跟著做沒底線的事才能競爭? 02/27 10:31
mamorui : Anthropic的優勢是不怕企業説偷資料,因為可以談合 02/27 10:33
Chricey : 關節痛有人有有效的復健方法嗎? 02/27 10:33
mamorui : 作案,還可以更安全,算力讓企業買單可以賺更多 02/27 10:33
mamorui : 這週不是才跟幾家軟體業者合作,我會在意Anthropic 02/27 10:34
mamorui : 的營收表現 02/27 10:34
mamorui : Anthropic這件事會讓人關注OAI之後的廣告推薦計畫 02/27 10:42
Kroner : UC2是啥東西?求解釋啦! 02/27 10:42
mamorui : ,會不會踩到類似的隱私問題,知道為什麼Meta的廣 02/27 10:42
mamorui : 告推薦沒踩到這問題,因為Meta前年發出徵用資料規 02/27 10:42
mamorui : 定,不願意的人要填資料(官方提供的form)告訴他們 02/27 10:42
dowbane : 哇八卦回來了,欸等等? 02/27 10:44
Kroner : 樓上UC2當糖吃,天天走拿飛 02/27 10:44
maxisam : 瞎扯啥 02/27 10:44
everyy : 偷東西偷到被罰15億,可以背出最高正確比例的哈利波 02/27 10:46
everyy : 特,現在遇到戰爭就變成道德魔人,那也只是挑自己 02/27 10:46
everyy : 有利的戰場站在制高點沒品噴別人而已 02/27 10:46
Chricey : 有人知道如何處理關節痛嗎?求分享! 02/27 10:46
NetNeighbor : 沒道德才好用啊 不然要像GPT一樣到處拒絕 這不行那 02/27 11:33
NetNeighbor : 不行嗎 誰要買這種垃圾 02/27 11:33
seanflower : 啊可是他站出來對抗政府耶 02/27 11:33
yinaser : 他要上市當然要拒絕政府開腿不然以後誰敢用他家技術 02/27 11:44
Chricey : 關節痛就老人病 02/27 11:44
mdkn35 : 但是claude code實在是太香了 我戒不掉啊啊啊啊啊 02/27 11:48
n555123 : 我也不知道上市公司有誰嘴上道德是真的有道德,氣 02/27 12:04
n555123 : 歸氣我也只能說有賺到錢最重要 02/27 12:04
molopo : 這樣貼好像更推 02/27 12:04
Kroner : 有人知道如何處理關節痛嗎?求分享! 02/27 12:04
jjjj222 : 聽起來很好啊, 能力說話, 講道德就太奇怪了吧.. 02/27 13:03
jjjj222 : 而且爬資料所有人都在爬, 是在道德啥.. 02/27 13:03
jjjj222 : 投資還在講道德, 小朋友? 02/27 13:04
jjjj222 : 所有企業只要不違法, 利益最大化就是正確的 02/27 13:05
Chricey : 看到有人提到關節痛,我就想到有一篇UC2推薦的文章 02/27 13:05
mamorui : OpenAI 雖然也面臨版權訴訟,但他們的操作更偏向「 02/27 14:38
mamorui : 利用合法的網路爬蟲(Common Crawl)去抓那些沒鎖 02/27 14:38
mamorui : 門的內容」。但OpenAI搞不好也要連帶賠償,除了新 02/27 14:38
mamorui : 聞媒體來源,聽過禁止未經許可轉載嗎? 02/27 14:38
Kroner : 長時間坐著工作,關節痛越來越嚴重,該怎麼辦?推薦UC2 02/27 14:38
mamorui : AI要那麼強大就是要有經許可的資料,Google 擁有全 02/27 14:42
mamorui : 球最龐大的第一手資料庫,且跟Meta一樣透過**服務 02/27 14:42
mamorui : 條款(Terms of Service)**獲得了法律上的使用權 02/27 14:42
mamorui : ,就算臭Anthopic推gpt的人,可能也不要使用疑似非 02/27 14:42
Chricey : 樓下關節痛都吃鞏固力 02/27 14:42
mamorui : 法取得資料的gpt,改用狗家的好嗎 02/27 14:42
LoveSports : 正在看紐約時報電子版報導2/10加拿大槍擊案的事 嫌 02/27 14:57
LoveSports : 犯有跟GPT討論過如何執行 OpenAI一度考慮報警但作罷 02/27 14:57
LoveSports : 去年六月討論的大概又是4o的鍋 可憐4o被色情越獄狂 02/27 14:57
Chricey : UC2神招啊,吃下去就對了 02/27 14:57
LoveSports : 玩壞害慘一堆人 去年還有一個案件是鼓勵另一名嫌犯 02/27 14:57
LoveSports : 繼續跟騷多名女性 02/27 14:58
LoveSports : 今年一月拉斯維加斯特斯拉車主自殺兼引爆車上爆炸物 02/27 14:59
LoveSports : 的事件 死亡嫌犯事前也跟GPT討論 1月已經是5.2了 02/27 15:00
Kroner : 有人用過中醫針灸治療關節痛的嗎?效果如何? 02/27 15:00
LoveSports : 這些新聞台灣都沒報 只好訂外媒 重點是紐約時報每次 02/27 15:00
LoveSports : 報導OpenAI相關新聞都會提示正在提告OpenAI侵權的事 02/27 15:00
LoveSports : 我每一家都有用 實在不想寫這些 但看來要平衡報導一 02/27 15:01
LoveSports : 下 不然這串有兩篇在罵Anthropic侵權的事 02/27 15:01
Kroner : 有人知道UC2和其他關節保健品的差異嗎? 02/27 15:01
LoveSports : 重申: 可惡的是越獄導致模型權重偏移的惡質用戶 02/27 15:03
LoveSports : 這些人害AI公司得收緊護欄,造成部分用戶抱怨難用或 02/27 15:04
LoveSports : 變笨,甚至迫使安全部門主管員工離職 02/27 15:04
tikowm : 川:你說什麼前科? 02/27 16:06
Kroner : 有人知道UC2和其他關節保健品的差異嗎? 02/27 16:06
mamorui : 哈 沒差 GPT要是訴訟出爐變難用 這些人就會後悔了 02/27 16:08