4月1日から情報流通プラットフォーム法が施行され、SNSやネット上での誹謗中傷に対する新たな規制が整備されます。
この法律の目的は、権利侵害を受けた人が、短期間で簡単に投稿を削除できるようにすることです。
流通プラットフォームの基準は人口の約1割(約1000万ユーザー)を有するサービスとあります。
事業者には、ユーザーからの削除申請について速やかに対応する義務が課せられ、基準も明確に作成されることが求められています。
しかし、法律の実効性については懸念の声も上がっています。
専門家たちは、プラットフォームが第三者による削除申請にどのように応じるのか、その基準が曖昧であることを指摘しています。
また、プラットフォーマーの多くが海外資本であるため、国内法がどの程度効果を発揮するのかも疑問視されています。
法律には、削除要請に対応しない場合の罰則が明記されており、法人には最大1億円の罰金が科せられる可能性もあります。
これにより、SNS事業者は一層の透明性が求められることになりますが、実際にどのような対応を取るのか、その実施状況が今後注目されるでしょう。
あるプロジェクトのリーダーである三谷氏は、発信者や媒体社に対する責任が今後どう変わるのか、そして発信に対する規制がどのように進むのかについて言及しています。
この法律は、誹謗中傷の削除に関して一線を引くものでありつつ、同時に自由な言論を萎縮させる懸念も孕んでいます。
プログラマーとして考えると、こうした規制がどの程度技術的な対応を要求するのか、興味深いところです。
特に、AIやアルゴリズムの利用が進む中で、投稿内容の判断基準が自動化されることが求められるかもしれません。
しかし、その基準が社会的な合意を得るものでなければ、さらに大きな問題に発展する可能性もあると思います。
業界全体がこの法律をどう受け止め、技術で対応していくのかが注目されます。
