微軟最新AI模型Fara-7B,強調本地端運行與資料隱私,企業可安心使用。Fara-7B具備卓越效能,透過視覺感知操作,完成複雜任務,展現AI模型的無限潛力。微軟於 11 月 24 日正式發表最新 AI 模型 Fara-7B,這款具備 70 億參數的模型被定位為「電腦使用代理」(Computer Use Agent, CUA),主打可直接在本地端運行、無需依賴雲端算力,同時兼顧高效能與資料隱私。 主打企業資料安全,支援「視覺感知」操作 Fara-7B 的設計核心在於滿足企業客戶對敏感資訊處理的隱私與合規需求。由於模型足夠精簡,可以在個人電腦上執行,不僅降低延遲,也避免資料上傳至雲端,有助於落實本地化自動化,例如用於內部帳號管理、機密文件處理等場景。 這款模型最大特色是採用「看螢幕操作」方式與網站互動——透過螢幕截圖讀取畫面排版,再預測滑鼠點擊、輸入或滾動等動作。與傳統依賴瀏覽器結構的方式不同,Fara-7B 完全基於像素級資料進行推理,因此即便是程式碼結構混亂的網站,也能正常運作。 微軟研究院產品經理 Yash Lara 表示,Fara-7B 透過本地端處理視覺輸入,實現所謂的「像素主權」,讓包括醫療、金融等高度監管產業也能安心使用。 實測效能超越 GPT-4o,小模型更高效 在 WebVoyager 測試基準中,Fara-7B 的任務完成率達 73.5%,高於 GPT-4o 的 65.1% 與 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任務平均僅需 16 步操作,明顯優於 UI-TARS-1.5-7B 的 41 步,在準確率與效率之間達成最佳平衡。 Fara-7B 同時引入「關鍵確認點」(critical checkpoints)機制,在遇到涉及用戶個資或不可逆操作(如發送信件、金錢轉移)時會自動暫停並請求確認,搭配「Magentic-UI」互動介面,提供人機協作的安全防線。 知識蒸餾與專家示範訓練,強化自主學習潛力 Fara-7B 採用「知識蒸餾」訓練方法,整合由多代理系統 Magentic-One 所產生的 14.5 萬筆成功導航範例,並壓縮至單一模型中學習。此外,底層模型基於 Qwen2.5-VL-7B,擁有最長 128,000 token 的上下文窗口,具備優異的圖文對齊能力,訓練過程以模仿人類專家操作為主。 微軟表示,未來不會盲目追求更大模型,而是致力於打造更「小而聰明、安全」的模型,並計畫引入強化學習(RL)於合成沙箱環境中進行自學訓練。 已開源上架,可自由測試商用但尚非正式產品 目前 Fara-7B 已透過 MIT 授權開源釋出,可在 Hugging Face 與微軟 Foundry 平台下載使用,允許用於商業應用。但微軟也提醒,該模型尚未達到生產環境部署標準,目前主要適合開發者用於原型測試與功能驗證。   延伸閱讀:Google 推 WeatherNext 2 新一代氣象預報 AI 模型,Pixel、搜尋、Gemini 搶先用 延伸閱讀:研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用 延伸閱讀:Anthropic 發表Claude Haiku 4.5 小型 AI 模型:僅 1/3 成本、效能對標 Sonnet 4,程式表現甚至小贏  加入T客邦Facebook粉絲團微軟最新AI模型Fara-7B,強調本地端運行與資料隱私,企業可安心使用。Fara-7B具備卓越效能,透過視覺感知操作,完成複雜任務,展現AI模型的無限潛力。微軟於 11 月 24 日正式發表最新 AI 模型 Fara-7B,這款具備 70 億參數的模型被定位為「電腦使用代理」(Computer Use Agent, CUA),主打可直接在本地端運行、無需依賴雲端算力,同時兼顧高效能與資料隱私。 主打企業資料安全,支援「視覺感知」操作 Fara-7B 的設計核心在於滿足企業客戶對敏感資訊處理的隱私與合規需求。由於模型足夠精簡,可以在個人電腦上執行,不僅降低延遲,也避免資料上傳至雲端,有助於落實本地化自動化,例如用於內部帳號管理、機密文件處理等場景。 這款模型最大特色是採用「看螢幕操作」方式與網站互動——透過螢幕截圖讀取畫面排版,再預測滑鼠點擊、輸入或滾動等動作。與傳統依賴瀏覽器結構的方式不同,Fara-7B 完全基於像素級資料進行推理,因此即便是程式碼結構混亂的網站,也能正常運作。 微軟研究院產品經理 Yash Lara 表示,Fara-7B 透過本地端處理視覺輸入,實現所謂的「像素主權」,讓包括醫療、金融等高度監管產業也能安心使用。 實測效能超越 GPT-4o,小模型更高效 在 WebVoyager 測試基準中,Fara-7B 的任務完成率達 73.5%,高於 GPT-4o 的 65.1% 與 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任務平均僅需 16 步操作,明顯優於 UI-TARS-1.5-7B 的 41 步,在準確率與效率之間達成最佳平衡。 Fara-7B 同時引入「關鍵確認點」(critical checkpoints)機制,在遇到涉及用戶個資或不可逆操作(如發送信件、金錢轉移)時會自動暫停並請求確認,搭配「Magentic-UI」互動介面,提供人機協作的安全防線。 知識蒸餾與專家示範訓練,強化自主學習潛力 Fara-7B 採用「知識蒸餾」訓練方法,整合由多代理系統 Magentic-One 所產生的 14.5 萬筆成功導航範例,並壓縮至單一模型中學習。此外,底層模型基於 Qwen2.5-VL-7B,擁有最長 128,000 token 的上下文窗口,具備優異的圖文對齊能力,訓練過程以模仿人類專家操作為主。 微軟表示,未來不會盲目追求更大模型,而是致力於打造更「小而聰明、安全」的模型,並計畫引入強化學習(RL)於合成沙箱環境中進行自學訓練。 已開源上架,可自由測試商用但尚非正式產品 目前 Fara-7B 已透過 MIT 授權開源釋出,可在 Hugging Face 與微軟 Foundry 平台下載使用,允許用於商業應用。但微軟也提醒,該模型尚未達到生產環境部署標準,目前主要適合開發者用於原型測試與功能驗證。   延伸閱讀:Google 推 WeatherNext 2 新一代氣象預報 AI 模型,Pixel、搜尋、Gemini 搶先用 延伸閱讀:研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用 延伸閱讀:Anthropic 發表Claude Haiku 4.5 小型 AI 模型:僅 1/3 成本、效能對標 Sonnet 4,程式表現甚至小贏  加入T客邦Facebook粉絲團

微軟推出 Fara-7B 小型 AI 模型,在地端直接執行、效能超越 GPT-4o

5 min read

微軟於 11 月 24 日正式發表最新 AI 模型 Fara-7B,這款具備 70 億參數的模型被定位為「電腦使用代理」(Computer Use Agent, CUA),主打可直接在本地端運行、無需依賴雲端算力,同時兼顧高效能與資料隱私。

主打企業資料安全,支援「視覺感知」操作

Fara-7B 的設計核心在於滿足企業客戶對敏感資訊處理的隱私與合規需求。由於模型足夠精簡,可以在個人電腦上執行,不僅降低延遲,也避免資料上傳至雲端,有助於落實本地化自動化,例如用於內部帳號管理、機密文件處理等場景。

這款模型最大特色是採用「看螢幕操作」方式與網站互動——透過螢幕截圖讀取畫面排版,再預測滑鼠點擊、輸入或滾動等動作。與傳統依賴瀏覽器結構的方式不同,Fara-7B 完全基於像素級資料進行推理,因此即便是程式碼結構混亂的網站,也能正常運作。

微軟研究院產品經理 Yash Lara 表示,Fara-7B 透過本地端處理視覺輸入,實現所謂的「像素主權」,讓包括醫療、金融等高度監管產業也能安心使用。

實測效能超越 GPT-4o,小模型更高效

在 WebVoyager 測試基準中,Fara-7B 的任務完成率達 73.5%,高於 GPT-4o 的 65.1% 與 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任務平均僅需 16 步操作,明顯優於 UI-TARS-1.5-7B 的 41 步,在準確率與效率之間達成最佳平衡。

Fara-7B 同時引入「關鍵確認點」(critical checkpoints)機制,在遇到涉及用戶個資或不可逆操作(如發送信件、金錢轉移)時會自動暫停並請求確認,搭配「Magentic-UI」互動介面,提供人機協作的安全防線。

知識蒸餾與專家示範訓練,強化自主學習潛力

Fara-7B 採用「知識蒸餾」訓練方法,整合由多代理系統 Magentic-One 所產生的 14.5 萬筆成功導航範例,並壓縮至單一模型中學習。此外,底層模型基於 Qwen2.5-VL-7B,擁有最長 128,000 token 的上下文窗口,具備優異的圖文對齊能力,訓練過程以模仿人類專家操作為主。

微軟表示,未來不會盲目追求更大模型,而是致力於打造更「小而聰明、安全」的模型,並計畫引入強化學習(RL)於合成沙箱環境中進行自學訓練。

已開源上架,可自由測試商用但尚非正式產品

目前 Fara-7B 已透過 MIT 授權開源釋出,可在 Hugging Face 與微軟 Foundry 平台下載使用,允許用於商業應用。但微軟也提醒,該模型尚未達到生產環境部署標準,目前主要適合開發者用於原型測試與功能驗證。

  • 延伸閱讀:Google 推 WeatherNext 2 新一代氣象預報 AI 模型,Pixel、搜尋、Gemini 搶先用
  • 延伸閱讀:研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用
  • 延伸閱讀:Anthropic 發表Claude Haiku 4.5 小型 AI 模型:僅 1/3 成本、效能對標 Sonnet 4,程式表現甚至小贏
Market Opportunity
null Logo
null Price(null)
--
----
USD
null (null) Live Price Chart
Disclaimer: The articles reposted on this site are sourced from public platforms and are provided for informational purposes only. They do not necessarily reflect the views of MEXC. All rights remain with the original authors. If you believe any content infringes on third-party rights, please contact service@support.mexc.com for removal. MEXC makes no guarantees regarding the accuracy, completeness, or timeliness of the content and is not responsible for any actions taken based on the information provided. The content does not constitute financial, legal, or other professional advice, nor should it be considered a recommendation or endorsement by MEXC.

You May Also Like

Shibarium May No Longer Turbocharge Shiba Inu Price Rally, Here’s Reason

Shibarium May No Longer Turbocharge Shiba Inu Price Rally, Here’s Reason

The post Shibarium May No Longer Turbocharge Shiba Inu Price Rally, Here’s Reason appeared on BitcoinEthereumNews.com. Shibarium, the layer-2 blockchain of the Shiba Inu (SHIB) ecosystem, is battling to stay active. Shibarium has slipped from hitting transaction milestones to struggling to record any transactions on its platform, a development that could severely impact SHIB. Shibarium transactions crash from millions to near zero As per Shibariumscan data, the total daily transactions on Shibarium as of Sept. 16 stood at 11,600. This volume of transactions reflects how low the transaction count has dropped for the L2, whose daily average ranged between 3.5 million and 4 million last month. However, in the last week of August, daily transaction volume on Shibarium lost momentum, slipping from 1.3 million to 9,590 as of Aug. 28. This pattern has lingered for much of September, with the highest peak so far being on Sept. 5, when it posted 1.26 million transactions. The low user engagement has greatly affected the transaction count in recent days. In addition, the security breach over the weekend by malicious attackers on Shibarium has probably worsened issues. Although developer Kaal Dhairya reassured the community that the attack to steal millions of BONE tokens was successfully prevented, users’ confidence appears shaken. This has also impacted the price outlook for Shiba Inu, the ecosystem’s native token. Following reports of the malicious attack on Shibarium, SHIB dipped immediately into the red zone. Unlike on previous occasions where investors accumulated on the dip, market participants did not flock to Shiba Inu. Shiba Inu price struggles, can burn mechanism help? With the current near-zero crash in transaction volume for Shibarium, SHIB’s price cannot depend on it to support a rally. It might take a while to rebuild user confidence and for transactions to pick up again. In the meantime, Shiba Inu might have to rely on other means to boost prices from its low levels. This…
Share
BitcoinEthereumNews2025/09/18 07:57
👨🏿‍🚀TechCabal Daily – When banks go cashless

👨🏿‍🚀TechCabal Daily – When banks go cashless

In today's edition: South Africa's biggest banks are going cashless || Onafriq and PAPSS pilot Naira wallet transfers from Nigeria to Ghana || South Africa just
Share
Techcabal2026/02/04 14:02
Wormhole launches reserve tying protocol revenue to token

Wormhole launches reserve tying protocol revenue to token

The post Wormhole launches reserve tying protocol revenue to token appeared on BitcoinEthereumNews.com. Wormhole is changing how its W token works by creating a new reserve designed to hold value for the long term. Announced on Wednesday, the Wormhole Reserve will collect onchain and offchain revenues and other value generated across the protocol and its applications (including Portal) and accumulate them into W, locking the tokens within the reserve. The reserve is part of a broader update called W 2.0. Other changes include a 4% targeted base yield for tokenholders who stake and take part in governance. While staking rewards will vary, Wormhole said active users of ecosystem apps can earn boosted yields through features like Portal Earn. The team stressed that no new tokens are being minted; rewards come from existing supply and protocol revenues, keeping the cap fixed at 10 billion. Wormhole is also overhauling its token release schedule. Instead of releasing large amounts of W at once under the old “cliff” model, the network will shift to steady, bi-weekly unlocks starting October 3, 2025. The aim is to avoid sharp periods of selling pressure and create a more predictable environment for investors. Lockups for some groups, including validators and investors, will extend an additional six months, until October 2028. Core contributor tokens remain under longer contractual time locks. Wormhole launched in 2020 as a cross-chain bridge and now connects more than 40 blockchains. The W token powers governance and staking, with a capped supply of 10 billion. By redirecting fees and revenues into the new reserve, Wormhole is betting that its token can maintain value as demand for moving assets and data between chains grows. This is a developing story. This article was generated with the assistance of AI and reviewed by editor Jeffrey Albus before publication. Get the news in your inbox. Explore Blockworks newsletters: Source: https://blockworks.co/news/wormhole-launches-reserve
Share
BitcoinEthereumNews2025/09/18 01:55