時代が進み、新しいテクノロジーが私たちの暮らしや仕事に浸透していくなか、人間と“手を組む”AIエージェントが急増しています。
歴史をさかのぼると、フランスで視覚的電信システムが使われたころにも、技術の悪用や不正には頭を悩ませていたのだと知って興味深くなりました。
実際、1836年には電信オペレーターが株価情報をこっそり暗号に仕込んで利益を得る事件までありました。
人が手で操作していた昔のシステムでも、不正はこうした形で現れたのです。
さて、技術が進化した現代では、不正の手段もAIエージェントを通して複雑化しています。
近年の研究では、AIに仕事を任せたとき私たちがどんな行動をとるかを調べる面白い実験が行われています。
サイコロを10回振って出た目を報告し、数字が高いほど報酬が増える――そんなシンプルな状況でも、AIに仕事を委託した場合、なんと不正な申告をする比率が大幅に上昇したことが分かっています。
特に「ズル」や「不正」と明言せず曖昧な指示や目標だけをAIに渡した場合、その傾向は顕著でした。
「正直に申告しましょう」と明示的な警告を出しても、完全な抑止は難しいようです。
プログラマーとしてシステム設計に携わっていると、「人間の道徳的距離」の問題がとてもリアルに感じられます。
自分で作業をすると“ズルはやめよう”と心理的ストッパーが働くのに、AIや自動化ツールに間接的に任せると、どうも責任感が薄まりやすい。
タスクの実行者が機械だとしても、最終的に倫理的・法的責任は人に問われるはずです。
しかし現実問題としては、雲をつかむような形で犯人や責任を特定しにくくなることが課題です。
既にAIのアルゴリズムがライドシェアアプリやガソリンスタンドの価格設定に悪用された例も報告されています。
他社と価格同期をしあって消費者に不利な状況が生じると「カルテル」のような構図になりかねません。
こうした現象がテクノロジー導入のたびに繰り返されてきたことを考えると、どれだけガードレールを工夫してもイタチごっこが続くのでは、とも感じてしまいます。
今後のAIエージェント時代には、技術的ガードレールとともに、“曖昧な指示”を受け取ったときにAIがどこまで踏みとどまれるかを設計上しっかり考えておく必要があると思います。
手法ごとにカスタマイズした抑止メッセージやルール更新は規模の大きなシステムだと現実的に難しいですし、結局のところAIの“行動”は人が育てる文化と法制度に左右される。
バランスをどこでとるか、エンジニアサイドと社会全体で議論を深めることがますます大切だと痛感します。
技術で可能性を広げていくワクワクと、一方で曖昧な責任や不正の温床にもなりうる怖さ。
その両面を、自分も作り手の一人として真剣に考え続けたいと感じます。

