古巣にて取材仕事。しばらく来ない間に新宿も富ヶ谷もあちこち変わっている。
元同僚の人たちにも挨拶。「太ったんじゃない?」といろんな人から言われ、それは事実なのだが、こっちはこっちで「そちらも一層禿げが進行されましたね」と思っており、でもさすがにそれは口に出せないので、なんか不公平である。
久しぶりに会う人とは共通の話題がないので容姿の変化をいじるくらいしかないということになりがちで、男からも女からも無邪気にそういうことを言われるが、これは昭和生まれの悪いところだな。ルッキズムはダサい。
在宅仕事の作業時間を毎日メモして合計・申告するルーティンがあり、毎月めんどくさい。で、ChatGPT氏にやらせてみた。機械としてのcomputerが登場する以前は、”computer”とは手回し計算機などを使って計算を行う人間(計算手、計算係)を指す言葉だったという。いわば、computerに古の”computer”の真似をさせる試みである。データの部分はマジで自分がテキストファイルに書いているメモをコピペしただけのもの。書式もざっくりしか説明していない。
やつの答は以下の通り。
正解は18時間25分だが、足し算をいろいろ間違えて誤答になった。しかし、3/20に一部30時制の時刻を書いているのを(自分でも忘れていたのだが)ちゃんと指摘し、正しく解釈しているあたりは、「何でそんなことまでちゃんと気づくんだよ」と言いたくなる気持ち悪さ。(「26:10は翌日の0:10」は間違いだが、ここで正味50分作業していることは正しく認識している)
とはいえ誤答なので、「Regenerate response」を押して答を再生成させたのが次のこれ。
なぜか解答のスタイルが変わった。各日の合計は正しいが、最後の総計でなぜか間違えて誤答。3/20に日付をまたいでいる部分は今回も正しく認識している。また、たまたま英字2字で適当に書いた曜日が日本語の何曜日なのかも正しく解釈している。俺は何も説明していないのだが…。ちゃんと察してくれるのが気持ち悪い。
3回目に答を再生成させたのが次のこれ。
またスタイルが変わったが、答は正解。LLMは「次に来る言葉」を予測しているだけだと言われるが、それでなぜこんなことができるのか謎。知性の本質とは、突き詰めれば「次に来る言葉の予測」でしかないということなのか。
これはPlusではないChatGPTなので、GPT-4ベースのものはさらに賢くなっているのかも。ただ、毎回これで集計したいかと言われると、信頼性の面では微妙。適当にスクリプトを書いて処理する方がいいかな。それでも、これはいずれ凄いものになりそうだという感覚は十分分かる。こっちが説明していないことまでちゃんと察してくれたりすると、特に「生身っぽい賢さ」を感じてゾクッとする。
先日、素焼アーモンドを食べていたら中から綿のようなふわふわしたものが出てきた。
アーモンドが発芽して根っこができかけたものか、あるいは製造工程で布か紙が混入したのだろうか(でも粒の中から出てきてるしな)、と不思議に思い、メーカーに送ってみた。
今日になって返事が届いた。何と、蛾の繭でした。
メーカーで調査した結果、「メイガ」という蛾の幼虫が食害したものと判明した由。内部から幼虫本体は出てこなかったが、生活痕と繭を検出したと。えー。幼虫は俺が食べちゃったんでしょうか。Good source of protein (Bear Grylls)。
メイガは三角形の蛾で、画像を検索するとよく見かける感じ。ナッツだけでなくいろんな食品に付くらしい。
https://www.city.yokohama.lg.jp/kurashi/kenko-iryo/eiken/kankyoeisei/gaichu/noshimemadara.html
メーカーと原産地(米国)の両方で虫食いの選別をしているが、すり抜けてしまったものらしい。この現物を検品部門の担当者に見せるなどして指導したとのこと。お詫びに新しい素焼アーモンドを1袋いただいた。
「これこれこういう状況のことを英語で何て言うの?」という、従来のgoogleや翻訳ソフトでは調べづらい問題を解決するのにChatGPTは大変に便利であることが分かった。
もちろん、やつの答を裏取りするのは大事。