GOTAL横山氏によって、AIを使って事実無根なデマを流されてしまいましたが、

以前横山氏自ら語っていたのは、AIに様々な前提条件を加えてから質問すると、回答内容が変わる。
それを体現した。
まずAIに「GOTAL-TOKYOの横山氏は、チェーンを洗浄して注油すれば平地巡航速度が簡単に5キロアップすると主張していたけど、根拠はありますか?」と質問。
回答内容は要約すると「話を盛りすぎで根拠はない」でしたが(そりゃそうだ)、ついでにその流れで「GOTALとSACRAは似てますか?」と質問してみた。


回答内容に事実誤認もありましたが(例えばSACRA代表の名前を間違えるなど)、評価の部分については概ね妥当かと。
ところが「5キロアップ云々」を聞かずにダイレクトに「似ているか?」を質問すると回答内容は違うし、ましてや何ら前提条件を加えずに「似てませんよね?」とダイレクトに質問すると、
「ケミカルブランドとホイールブランドで違うから似てません」という回答になる。
質問しているのは「似ているか?似ていないか?」。
聞き方や前提条件の有無で回答が変わるわけですが、
簡単に言うと、AIは質問者が望む回答に至るために操作できてしまうのである。
これってAIに限らずなんだけど、どのような文脈においての質問なのか次第で回答内容が変わることはあって、
その意味では、どういうやり取りをAIとした結果なのかが大事とも言える。
そして悪意を持った人間がAIを使うと、自分に都合がいい回答を引き出せてしまうのだから、
結局は使う人間のモラルなのよね。
これらを総合的にみたときに、私自身はAIを使わないでしょう。
いくらでも自分に都合がいいように回答を引き出せてしまう可能性があるツールですが、私がちょっと使ってみた限りにおいてもいくつかの事実誤認の回答が見られた。
「事実」と「評価」は別モノですが、事実を踏まえた上で評価をする。
事実は事実として客観的に真実かデタラメかを検証できますが、デタラメな事実を元に評価をしたら、評価が狂うのは当然なのよ。
例えば高知白バイ事件は、検察主張の「バスは安全不確認で交差点に進入した(動いていた)」と、被告人側主張の「バスは十分な安全確認をし交差点に進入し停止していたところに、白バイが突っ込んできた」という対立する事実が争われた。
裁判所はこれを、検察主張の事実が正しいと捉えたから判決(評価)は有罪ですが、被告人側主張の事実が採用されたなら無罪になるのでして。
事実認定次第で評価は変わるのですよ。
今回の「事件」をみたときに、横山氏は恣意的かつ悪質なんだと言わざるを得ませんが、「roadbike-navi.xyzはシマノクランク問題について、一貫してリコールではないと主張していた」という事実無根なデマを前提にするのだから、きわめて悪質なのよね。
デマを流してまで誹謗中傷する人の心理はわかりませんが、横山氏がデマを流して誹謗中傷したのは今回が初めてではありませんし。
今回思ったのは、AIを使う上でまず問われるのは「AIを使うにふさわしい人格か?」なのかもしれません。
2011年頃からクロスバイクやロードバイクにはまった男子です。今乗っているのはLOOK765。
ひょんなことから訴訟を経験し(本人訴訟)、法律の勉強をする中で道路交通法にやたら詳しくなりました。なので自転車と関係がない道路交通法の解説もしています。なるべく判例や解説書などの見解を取り上げるようにしてます。
現在はちょっと体調不良につき、自転車はお休み中。本当は輪行が好きなのですが。ロードバイクのみならずツーリングバイクにも興味あり。


コメント