微新创想:近日解禁的法庭质询记录显示,Instagram主管Adam Mosser证实,平台自2018年起已发现私信中存在针对未成年人的色情等有害内容。这一发现表明,Instagram在早期阶段就已经意识到私信功能可能带来的安全隐患,但并未立即采取有效措施来应对。
尽管平台早已察觉问题,但面向私信的自动内容模糊防护机制直到2024年才正式上线。这一延迟引发了公众对Instagram安全措施的质疑,认为平台在保护未成年人方面存在明显的滞后。Adam Mosser在回应中表示,这一机制的上线是为平衡用户隐私与安全之间的关系,确保在保障用户隐私的同时,也能有效过滤有害内容。
Meta公司对此作出回应,强调其在过去的十余年间持续与专家、执法部门以及家长合作,不断推进相关改进工作。公司不仅推出了针对青少年账户的内置防护功能,还开发了家长管控工具,以帮助家长更好地监督和管理孩子的在线活动。这些措施体现了Meta在未成年人网络保护方面的努力,但也未能完全消除公众对其安全机制的担忧。
事件的发生地为美国,涉及的平台为Meta旗下的Instagram。这一案件的曝光再次引发了对社交媒体平台责任的广泛讨论,尤其是在未成年人保护方面。公众呼吁平台应更加积极主动地采取措施,防止有害内容通过私信渠道传播,确保青少年在网络环境中的安全。
