三星半导体允许旗下工程师使用 ChatGPT 为辅助工具,快速修复原始程式码的错误,不料泄露会议纪录、工厂性能、产量等机密资讯。三星已计划开发类似 ChatGPT 的服务供员工使用,但先限制工程师询问 ChatGPT 的问题长度。
外媒 Tom′s Hardware 报导,三星半导体已报告 3 起使用 ChatGPT 导致数据泄露事件,且都是最近20天发生。
第一个案例,三星半导体员工提交专有程式原始程式码给 ChatGPT,以修复错误,无意间将最高机密应用程式代码泄露给其他公司的 AI。
第二个案例,某员工用 ChatGPT 输入辨识缺陷晶片的测试模式,并要求改善,但辨识缺陷测试序列必须严格保密。
第三位员工使用 Naver Clova 应用程式将会议纪录转成档案,再交给 ChatGPT 产生文件。
这些行为让机密资讯暴露於危险中,所以三星警告员工使用 ChatGPT 必须小心。三星也通知高层和员工,输入 ChatGPT 的数据会上传并储存於外部伺服器,公司无从查阅,也增加机密资讯泄露的风险。
虽然 ChatGPT 功能强大,但开放学习数据功能会将敏感资讯暴露给第三方,在竞争激烈的半导体业是无法接受的事。
三星已准备保护措施,防止再发生类似事故。若再次发生,三星很可能考虑封锁内网使用 ChatGPT。被问及泄露事件时,三星发言人拒绝证实或否认。
- Samsung Fab Workers Leak Confidential Data While Using ChatGPT
(首图来源:shutterstock)