はじめに
近年、科学技術の進歩は凄まじく、AI、バイオテクノロジーといった分野は、その技術がもたらすメリットとデメリットの影響が非常に大きいと感じるようになった。特にAIに関しては、AGI(汎用人工知能)が数年〜10年程度で実現可能になると言われているみたいだけど、その仕組み自体の「なぜそうなるのか」はまだ明確に理解されているわけではないらしい。つまり「作り方は分かるがなぜそうなるのか理解はしていない」という、危うい状況が生まれているように思う。
僕はこれまで「知的好奇心は人類の原動力であり、それを制限するのは野暮だ」と感じていた。しかし、こうした話を聞くと「本当にこのまま進んでいいのか?」という問いが頭をよぎるようになった。一度立ち止まり、考えることの大切さを実感するようになった。
技術が哲学を必要とする時代とは?
最新の科学技術は、もう多くの人が手放しに喜べるような「進歩」ではなく、各個人の価値観等に左右される「選択」の領域になってきているんじゃないかなと思う。
たとえば「生命の設計図を書き換える」「人間の知能を超える知性を生み出す」という行為は、技術的には可能かもしれない。しかし、「それをやっていいのか?」「誰が判断すべきか?」という問いは、技術ではなく倫理や哲学の領域に属すると思う。
どんな技術もメリット・デメリットがあることはわかるけど、最新の技術はそのパワーが凄すぎて、正の方向にも負の方向にもインパクトが強烈だと思う。だからこそ「その可能性をどう扱うか」こそが、より重要になると思う。
知的好奇心と倫理のせめぎ合い
科学者やエンジニアの多くは、純粋な好奇心や理論的探究心によって動いているように見える。それは人間として自然なことだと思う。
しかし、「理解できていないものを作り出す」という状況には慎重になるべきだと感じる。たとえばAGIの開発では、その学習や意思決定の過程がブラックボックス化している場合があるかもしれない。それを、AGIのアウトプットだけを見て「うまくいっているからOK」と進めるのは危うさを感じる。
「知りたい」「作りたい」という気持ちと、「本当にそれをやっていいのか?」という倫理的なブレーキ。その両者を両立させる知恵が必要になってきていると感じる。
「できる」と「やっていい」は違う
たとえば遺伝子編集、AIによる人間行動の操作、軍事目的でのAI利用。いずれも「できるようになりつつある」ものだが、それを「やっていいのか」は別問題だと思う。
倫理や哲学は、こうした「やっていいのか」に答えるための思考のフレームワークを提供してくれるのかもしれない。技術が暴走しないためには、それを支える理論と実践の両輪が必要だと感じる。
そのフレームワークにもとづいたルール作りが必要だと思うし、ルールの履行を強制できるような仕組みが不可欠だと思う。
でも現状、倫理の重要性が技術開発と同じ速度では社会に浸透していないように見える。そこに不安を感じる。
技術のスピードと競争の問題
僕はAIの進展を止めるべきだとは思っていない。どんな技術も、全面的に禁止されるべきではないと思う。技術は使い方次第で役立つし、否定するよりも、どう使うかを考えることの方が大切だと感じている。
ただ、インパクトが強烈な技術については、慎重に少しずつ社会に投下して、その影響を見ながらルールの線引きをしていくべきだと思う。つまり、開発や社会実験のスピードをしっかりコントロールする必要があるんじゃないかと思う。
技術と競争、そして新しい仕組みの必要性
ここで問題になるのが「競争」だと思う。資本主義がもたらした競争の原理は、確かにこれまでの世の中の発展に大きく寄与してきたと思う。でも今、その競争の原理のせいで、計り知れないパワーを持った技術の開発競争が、えげつないスピードで行われるようになっている気がする。
こうした状況を前にして、「国家を超えたルール強制機関」や、「技術を世に出すときの審査プロセスを全ての技術に義務づける制度」みたいな、より構造的な仕組みが必要なんじゃないかなと思う。
たとえば、AIや遺伝子編集といった影響力の大きい技術については、社会に投下する前に必ず中立的な第三者機関の審査を受けることを義務化するとか、その後も影響をモニタリングしながら段階的にルールを整備していくような制度が必要なんじゃないかと思っている。
いまのように、「社会に投下してから考える」「問題が起きてからルールを作る」というやり方では、AIのような爆発的な力を持つ技術に対応しきれない気がしている。
もちろん、こうした仕組みを作るのは簡単なことじゃないし、国際的な合意や協力も不可欠だと思う。でも、それでもどこかで踏み出さなければ、この先ますますコントロール不能な状況になってしまうんじゃないかと感じている。
現状は詰んでいるのか?それでも何かできることはあるのか?
ここまで書いてきて思うのは、正直、今の社会構造や制度のままでは、AIのような強烈な技術をうまくコントロールするのはかなり難しいんじゃないかということだ。
既存のアプローチ(たとえば国際的な協議や、業界主導のルール作り、デモクラティックガバナンスみたいな枠組み)は、理屈としては納得できるけれど、AIの進化スピードや開発主体の多様化(国家だけじゃなく、個人やスタートアップも含む)に全然追いついていないように感じる。
一方で、僕が考えているような「国家を超えたルール強制機関」とか、「技術を世に出すときの審査プロセスを全ての技術に義務づける制度」みたいなアイデアも実現可能性が低い。
つまり、「実効性があるけど追いつかないアプローチ」と「現実的じゃないアプローチ」しか思いつかない。これはもう、詰んでいると言ってしまいたくなるような状況。
でも、そこで思考停止したらそれこそ終わりだとも思うから少し苦しい。
おわりに
未来の技術と向き合うために、「速さ」だけではなく「思索」も必要だと思う。
哲学や倫理は、科学技術の足を引っ張るものではなく、その進歩を人類の幸福につなげるための「かじ取り」の役割を果たしてくれたらいいなと思う。