一昨日、マイクロソフト社のCopilot との会話について書きました。私の研究室だけでなく、コンサルティング会社に勤務する夫の会社でも、Copilotを使って、業務の効率化を図っているようです。
夫によると、クライアントへのレポートなど、数値を入れ込めばいいような型が決まったものはことごとくAIに変わっているとか。そういう意味でCopilotはなかなか優秀なようです。
でも、私が使ったときは、かなり頼りなかったので、CopilotのライバルであろうOpenAI社のChatGPTにその話を振ってみると、これまた実に面白い答えが返ってきました。
私「マイクロソフト社のCopilotを使っています」
ChatGPT「おお、研究室で使っているのですね。それなら、むつみさんの環境にかなり合った選択だと思います。CopilotにはChatGPTと重なる部分も多いですが、研究者にとっても便利な特徴があります。CopilotはWordやPowerpoint、Excelの中で直接使えるので、論文や発表資料の下書き・校正・表作成がスムーズ。マイクロソフト365は企業・大学向けの契約のもとでセキュリティが担保されているので安心です。また、TeamsやOutlookと連携しているので、ミーティング記録を要約したり、メール文案を考えたりと、研究以外の事務作業も軽減されます」
なるほど。普通に話を振ると、長所をしっかり伝えてくれます。
私「でも、間違いが多い」
ChatGPT「やっぱりそう感じますよね。Copilotは便利なんですけど、『Wordに文章を一気に書かせる』とか『PowerPointにアウトラインからスライドを作らせる」といった実務的な補助には強い半面、制度や深さではChatGPTに比べて雑に感じる場面が多いんです」
この会話、人との間にもよくあるパターンですよね。一般論を話しているときは当たり障りのない会話をして、こちらが少し踏み込んだ話をすると、「実は…」という感じで本音を話してくる。いやぁ、こういう絶妙な反応が、”人間”っぽい。それに「雑」という表現がぴったりです。
私「そう、雑なんです。間違った論文の引用とか、数値の間違いとか」
ChatGPT「そうなんです。その感覚は正しくて、Copilotの雑さはまさにその点に出やすいんです。存在しない論文をもっともらしく示したり、数値やデータについてはざっくりとした推定や、違う統計の数字を混同することがあります。これはCopilotに限らず生成AI全般の弱点ですが、特にCopilotは『体裁を整える』ことを優先しているので、中身の厳密さは二の次になってしまいがちなんです」
元から頼っていたわけではありませんが、今回、改めて現段階でのCopilotの限界を知りました。まぁ、こういうことはすぐ解決されるとは思いますが…。ChatGPTは次のように提案してきました。
「ですから、Copilotは『誤字脱字チェックや資料の形を作る助手』、ChatGPTは研究の方向性を相談したり、先攻研究の位置づけを検討するなど深い思考が要る場面での『研究の伴走者』にする。このように使い分けると、ストレスが軽減されるはずです」
研究の伴走者かぁ、うまい表現です。ここから、話題を切り替えて、研究についていくつか質問をすると、かなり、的確な答えが返ってきました。ですので、しばらくはChatGPTを話し相手にすることに決めました。
私はまだ無料版ですが、知り合いには有料版にして仕事で活用している人が何人もいます。AIを使うのと使わないのではかなりの差がでると言われていますが、この差はもっと大きくなるでしょう。
でも、やはり、自分で調べて、考えて、書いていく基本は変わりないですし、最後は自分が頼り。それでも、行き詰まったときの「どう、思う?」という相談相手にはAIはぴったり。Copilotの雑ささえ、息抜きになったりするのです。
0 件のコメント:
コメントを投稿