5 挚爱湘伦 3周前 420次点击
近日,微软的Copilot智能体在处理开源项目中的一个简单Bug时状况百出,不但未能解决问题,反而让情况变得更糟,此事引发全球程序员围观与嘲讽,同时也引发了人们对于AI编程实际应用效果和发展方向的思考。
Copilot改Bug失败过程
事情源于微软开源项目.NET Runtime里的一个正则表达式异常Bug,因问题简单,微软员工斯蒂芬让Copilot先行解决。Copilot自信提交PR,并在方案描述中称“确保一致性”“改动很小”。但斯蒂芬测试时,代码直接检查不通过,报错众多,许多正则表达式测试失败。最终,Copilot忙活半天,唯一的“贡献”只是改了PR标题。后续Copilot尝试修复错误,总结称“最初修复方案过于激进”,却被原始程序Bot打脸,提示“此操作被取消,后续步骤可能不包含预期的日志”,这条PR最终被手动关闭。
其他员工遭遇类似情况
除斯蒂芬外,另一位员工埃瑞克也遇到类似“AI惊喜”。在手动关闭PR、删除分支后,Copilot又把分支恢复,还改个标题请求再次审核。这表明Copilot出现的问题并非个例。
AI编程的现实落差
Copilot一直被高度吹捧,号称能执行低至中等复杂度开发任务,包括修复Bug、重构代码、完善文档等。然而此次事件显示,AI在实际应用中存在局限性,尤其在处理复杂上下文环境时,只能理解局部片面内容。这让开发者们忍俊不禁,有人调侃“AI至少提高了写无效代码的效率”。
事件背后的反思
此次事件不仅反映出AI编程现实与预期的巨大落差,还侧面反映出微软高层可能对AI技术过度推崇,强制要求员工使用Copilot,使一线开发者备受折磨。这也表明,AI编程当前的目标应是辅助开发者,而非替代开发者。
关于此事件你怎么看?欢迎来评论区交流交流。