📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
智能合约漏洞是如何导致2025年最大加密货币黑客攻击的?
智能合约漏洞导致2025年加密货币黑客攻击损失5亿美元
智能合约漏洞已成为加密货币领域的一个关键安全问题,2025年加密黑客攻击造成的损失约为5亿美元。这个数字占今年加密行业报告的31亿美元总损失的很大一部分。根据全面的安全分析,访问控制缺陷已被确定为这些攻击的主要原因。
当检查加密货币损失的分布时,这些漏洞的严重性显而易见:
| 攻击向量 | 损失金额 (千 $) | 总损失百分比 | |---------------|-------------------------|----------------------------| | 智能合约漏洞 | 500 | 16.1% | | 访问控制漏洞 | 1,200 | 38.7% | | 拉高出货和骗局 | 890 | 28.7% | | 其他漏洞 | 510 | 16.5% |
一个值得注意的事件涉及到UPCX平台在2025年4月的黑客攻击,攻击者利用智能contract的漏洞盗取了价值7000万美元的代币。同样,Moby期权平台在Arbitrum网络由于合约漏洞在1月遭受了250万美元的损失。
来自Hacken的安全专家强调,尽管区块链具有固有的防篡改设计,DeFi协议仍然容易受到针对执行不当的智能合约的攻击。2025年OWASP智能合约前10大问题特别强调了重入攻击作为一种持续的威胁向量,表明基本的安全问题仍然困扰着即使是复杂的区块链实现。
主要交易所的黑客攻击暴露了中心化托管风险
中心化交易所多次证明其脆弱性,遭受毁灭性的安全漏洞,最近的Bybit 15亿美金黑客事件成为互联网历史上最大的黑客事件。这些事件揭示了中心化托管模型的根本缺陷,单点故障使用户资产面临重大风险。
这些泄露事件的规模和频率突显了令人担忧的模式:
| 交易所黑客攻击 | 损失金额 | 主要漏洞 | |---------------|-------------|----------------------| | Bybit (2024) | 15亿 | 钱包基础设施漏洞 | | XT.com (2024) | 170万美元 | 钱包基础设施漏洞 | |Bithumb (2018) |3100 万美元 |热门wallet漏洞 |
安全漏洞、内部威胁和管理失误对集中交易所构成持续风险。技术分析显示,智能合约漏洞和零日漏洞在近年来的重大黑客攻击中占据了17%,亚洲交易所尤其成为目标,损失估计达到4亿美元。
这些事件突显了交易所迫切需要实施增强的安全协议,包括时间锁机制、多层授权系统和改进的内部威胁检测技术。场外结算作为另一项关键安全措施,已成为保护用户资金免受潜在侵害的重要手段。集中化的结构本质上创造了攻击向量,复杂的黑客持续利用这些漏洞,这要求交易所运营商不断保持警惕并进行安全创新,以保护客户资产。
新兴的AI生成代码带来了新的安全挑战
将人工智能生成的代码集成到开发工作流程中,带来了前所未有的安全漏洞,组织必须紧急应对。研究揭示了一个令人担忧的现实:92%的安全领导者对在其组织中实施人工智能生成的代码表示重大担忧,而近一半的开发任务在 incorporating 人工智能生成的代码时面临重大安全风险。不断扩大的攻击面为恶意行为者创造了新的切入点。
降价 | 安全挑战 | 当前状态 | 治理状态 | |-------------------|---------------|------------------| | AI生成代码中的漏洞 | 存在于~50%的任务中 | 不足 | | 组织采用 | 超过 50% 使用 AI 编码助手 | 仅 18% 有正式治理 | | 安全领导者关切程度 | 92% 表达关切 | 实施滞后 |
通过AI辅助的代码生产量的急剧增加与安全漏洞的扩展直接相关。组织必须针对这些独特的挑战调整其应用安全实践。有效的治理框架代表了当前安全方法中缺失的关键组成部分,尽管广泛采用,但只有18%的组织实施了正式的监督。将安全设计原则应用于代码生成模型的扩展将显著减轻这些新出现的威胁。如果没有适当的安全控制,通过AI生成的代码所获得的便利和效率最终可能因增加的数据泄露风险和扩展的攻击面而适得其反。