🎉 亲爱的广场小伙伴们,福利不停,精彩不断!目前广场上这些热门发帖赢奖活动火热进行中,发帖越多,奖励越多,快来 GET 你的专属好礼吧!🚀
🆘 #Gate 2025年中社区盛典# |广场十强内容达人评选
决战时刻到!距离【2025年中社区盛典】广场达人评选只剩 1 天,你喜爱的达人,就差你这一票冲进 C 位!在广场发帖、点赞、评论就能攒助力值,帮 Ta 上榜的同时,你自己还能抽大奖!iPhone 16 Pro Max、金牛雕塑、潮流套装、合约体验券 等你抱走!
详情 👉 https://www.gate.com/activities/community-vote
1️⃣ #晒出我的Alpha积分# |晒出 Alpha 积分&收益
Alpha 积分党集合!带话题晒出你的 Alpha 积分图、空投中奖图,即可瓜分 $200 Alpha 代币盲盒,积分最高直接抱走 $100!分享攒分秘籍 / 兑换经验,中奖率直线上升!
详情 👉 https://www.gate.com/post/status/12763074
2️⃣ #ETH百万矿王争霸赛# |ETH 链上挖矿晒收益
矿工集结!带话题晒出你的 Gate ETH 链上挖矿收益图,瓜分 $400 晒图奖池,收益榜第一独享 $200!谁才是真 ETH 矿王?开晒见分晓!
详情 👉 https://www.gate.com/pos
麻省理工推出 PhotoGuard 技术,可保护图像免受恶意 AI 编辑
撰文:Andrew Tarantola
来源:Engadget
Dall-E 和 Stable Diffusion 只是开始。随着人工智能生成系统的普及,以及各公司努力将自己的产品与竞争对手的产品区分开来,互联网上的聊天机器人正在获得编辑和创建图片的能力,Shutterstock 和 Adobe 等公司就是其中的佼佼者。但是,这些新的 AI 功能也带来了我们熟悉的问题,比如未经授权篡改或直接盗用现有的在线作品和图片。水印技术可以帮助减少后者问题,而麻省理工学院 CSAIL 开发的新型“PhotoGuard”技术则可以帮助我们防止前者的出现。
据悉,PhotoGuard 的工作原理是改变图像中的部分像素,从而破坏 AI 理解图像内容的能力。研究团队所说的这些“扰动”,人眼是看不见的,但机器很容易读懂。引入这些伪影的“编码”攻击方法针对的是算法模型对目标图像的潜在表示 -- 描述图像中每个像素的位置和颜色的复杂数学 -- 从根本上阻止了人工智能理解它正在看什么。(注:伪影 (Artifacts) 是指原本被扫描物体并不存在而在图像上却出现的各种形态的影像。)
“编码器攻击会让模型认为(要编辑的)输入图像是其他图像(如灰度图像),”麻省理工学院博士生、论文第一作者 Hadi Salman 告诉 Engadget。“而扩散攻击则迫使扩散模型对一些目标图像(也可以是一些灰色或随机图像)进行编辑。”这种技术并非万无一失,恶意行为者可能会通过添加数字噪音、裁剪或翻转图片等方式,对受保护的图像进行逆向工程。
“涉及模型开发人员、社交媒体平台和政策制定者的协作方法可以有效防御未经授权的图像操纵。解决这一紧迫问题在今天至关重要。”Salman 在一份新闻稿中表示。“虽然我很高兴能够为这一解决方案做出贡献,但要使这一保护措施切实可行,还有很多工作要做。开发这些模型的公司需要投入资金,针对这些 AI 工具可能带来的威胁进行强大的免疫工程设计。”