アルバニアでは先月、「AI大臣ディエラ」と呼ばれるシステムが政府に導入され話題となった。
これは世界で初めて、AIが閣僚級ポストに昇格した実験的な取り組みだ。
人口280万人ほどの小さな国だが、公共調達、つまり政府が物やサービスを購入・契約するプロセスにAIを活用する大胆な一歩を踏み出した。
これまで人間ならではの癒着や賄賂などの問題が指摘されてきた公共調達の領域で、フェアな入札と採点をAIが担えば、腐敗の入り込む余地を減らせるメリットが期待されている。
「ディエラ」は一種の仮想の大臣で、今のところ特に財務分野を担当する役割を持つ。
具体的には、契約の落札者を決定するプロセスに特化し、従来は人間の官僚が行っていた作業の多くを自動化している。
電子政府のアシスタントとしての機能を果たしつつ、最終的な意思決定には人間が関与する「AI+人」の組み合わせを取っているのが特徴だ。
AI自身が賄賂を受け取ることはありえないが、与えられるデータや設計次第で、その公正さや効率性は揺らぎうる。
ただ、実際の運用はまだ多くが不透明だ。
例えば、落札に納得できない企業が異議を申し立てた場合、誰が最終的な責任を負うのか――首相か、監督官僚か、AIベンダーか、そうした説明は十分とは言えない。
AIシステムの信頼性や運用管理も、技術だけでなく制度設計とも密接に関係している。
公共調達は、国家財政の中でも極めて重要な領域だ。
世界では毎年、数百兆円規模の支出がこのプロセスを通じて決定されている。
経済成長や無駄の削減を目指す国々にとって、入札の運用を透明かつ迅速にすることは大きな意味を持つ。
そのため、アルバニアの試みは今後も各国が注目することだろう。
アルバニアのこのタイミングにはもう一つの背景がある。
欧州連合(EU)加盟を目指している同国は、EUの新しいAI法(AI Act)への適合も視野に入れている。
EU法ではAIシステムの導入や設計に厳しい透明性、安全性、非差別、説明責任が課される。
今後2年かけて詳細な要件が追加される予定で、AIシステム調達そのものが政府のAI政策の在り方を左右する大きなポイントになってくる。
一方で、アルゴリズムによる自動化が一部の不正を抑止する一方、新たな問題も生じうる。
AIを動かす元のデータが偏っていれば公正さが損なわれるし、システムがどんなロジックで決定しているのかが外から見えにくい「ブラックボックス化」も懸念されている。
つまり、表面上は近代化しても、従来の問題がデジタルの幕に隠れてしまうリスクだ。
信頼性を保つためには、透明な記録や独立レビュー、決定の異議申し立てができる公正な仕組みが必要不可欠。
システムの運用ログや採点方法、競争状況などを定期的に一般公開し、市民が実際に意思決定の根拠を追跡できることが欠かせない。
また、市民のルール理解や必要な説明責任も怠ってはならない。
興味深いのは、この「AI大臣ディエラ」が、しばしば「ロボット判事」と比較される点。
実際には司法ではなく公共調達の分野であり、制度としてさまざまなセーフガードの議論が今も進められている。
その成果次第では、他国が同様のプロジェクトを展開する際の参考事例となるだろう。
実務的観点からみても、こういったシステムの導入は膨大なロジック、データ処理、責任範囲の切り分け、倫理的課題など技術以外の大きなチャレンジが山積みだと感じる。
どういうアルゴリズムを使うか、監査やロギングの仕組みはどう設計するか、不服申立てのフローをいかに技術に落とし込むか……考えるだけでもワクワクする一方で、AI技術の社会実装においては「作って終わり」ではないと改めて実感する。
AIの公平さや透明性を担保できるかどうかは、これからのガバナンス設計や技術選定の妙にかかっている。
こうした実地のチャレンジからどんな知見や反省が生まれてくるのか、今後も目が離せない。

