あわせて読みたい
【ChatGPT】使えるプロンプトを共有しよう!
- 2023.04.18
- 未登録

いくつか分かっていること
1.「知識」ではなく「意見」を求める。
→ChatGPTは、そのアルゴリズムから、学習元データが正しい情報でも最終的な出力で正しい情報が得られるとは限りません。
そのため、「知識」を求める場合は従来の検索を使用し、有用な「意見」を求めるように使うのが良いです。
2.「質問」ではなく「指示」をする。
→「〜は?」というような形で聞くのではなく、「〜を計算してください。」「〜を作成してください」という形で聞いた方が望む回答が得られる場合が多いです。
『あなたは○○で✕✕のために使用されるシステム開発をしています。今回のバージョンアップについて、以下の内容で文書を作成します。
この文書を見たお客様から来ると想定される質問の内容を、出来るだけ具体的に記載してください(以下文書の内容をコピー)』
返ってきた10の結果のうち、2、3は有用な指摘をしており、それを元に回答を作成しました。
苦手なのは正確性の求められる調査
ただ、どっちにしても日本語は苦手
後輩の代わりに使うのに丁度いいぐらいのツールだから、性格を把握してちゃんとした命令を出さない限りまともに動かない
ただ、適切な指示ができたときのパフォーマンスは後輩とはダンチ
メカニズムがこんなとこで理解できると思ってるのか?
しりたきゃ関連論文ぐらい読め。今なら読むべき論文は大量に紹介されてる
パワハラしても訴えられない。
>GPTモデルは、自然言語処理タスクに特に適しているニューラルネットワーク
>の一種であるTransformerアーキテクチャに基づいています。このモデルは、
>言語モデリングの目的である、前の単語から一連の単語の次の単語を予測する
>ことを目的として、大規模なテキストデータのコーパスで事前に訓練されます。
これが事実だとすると意味の理解には至っていない
字面のみからそれらいしい字面を生成しているに過ぎないのかな?
例えばグーグルで”chatgpt 使い方”で検索して
出てきたページを分解して再構成してるに過ぎない
内容が正しいかどうかは知るわけがない
知りませんとも言わない(何らかのページがヒットするので)
あらゆる答えを全部暗記して面接に答えてる人みたいな感じだろうな。外観上は質問内容を理解して答えているかのように見えるだけだろう。
ちょっと前に指示したことも忘れるし
上手くやる方法あったら教えて
どんな質問でもお手伝いできるよう努力します
どうぞ何でも聞いてください
答えがどのくらい確からしいかを0(不確か)から100(確か)として評定して下さい」
と書いて質問すると確信度とともに返答する
ただしその返答の確信度をどのくらい信用してよいのか?
という疑問が残る
アホなの?
いつかは課金したい
意味を表現したモデルがあるよね
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う
>理解と計算は違う
何が違うの?
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない
人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。
ヒトの理解もやっていることは計算だよ
ただし学習に要するデータ量が少ないという指摘は面白い
脳はどうやって効率的に学習してるのだろうね?
学習しているのではなく、考えているのだと思うぞ。
だから、学習しなくても頭のいい人は考え付く。
ほら、勉強しなくても出来る人がいるだろう。
>だから、学習しなくても頭のいい人は考え付く。
赤ん坊は考えることができない(少なくとも未熟である)
経験により考える回路が生成されることを学習という
理解してるのと同じだよ。
多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから
ChatGPTはプログラムには弱い印象を受けたが。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。
人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。
q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?
a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。
おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。
q.
山に対して勝つのはなんですか?
a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし
五感はあんまり関係ない
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが…
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。
何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな?
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。
そういう学者でも知らないような言葉を出してくるのに、幼稚園児でも
理解できるじゃんけんを間違う。
GPTは人間じゃないからな、理解の仕方が違うと言えばそれまでだろ。極端に言えば、人間と同じ発達はしてないというだけ
>>74
人間だって、大きくなくなくなくなくなくない、みたいなのが大きいか小さいかすぐ判定できなくて当然で、ルールを説明しても判定できないやつが多いだろ。
人間がロジックを理解してるってのも程度問題だと思うが。
大学数学なんかはロジックの塊だけど人間なら誰でも理解できるって訳じゃないだろ。
人間には判定できるやつと判定できないやつがいる
判定できないやつは理解できてない
故にGPTも理解できてないというのが正しい
んで、無茶複雑なロジックだとしてもコンピュータなどの支援なしにあなたは理解できるわけ?
閾値の問題でしかないと思うが
少なくとも、ChatGPTが提示したプログラムは、まともな人間のプログラマよりも
遥かにバグが多い。
プロとしては全くやっていけないレベル。
初歩的なミスをする。特にロジック系の。
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね
詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、
ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される
その部分は五感と切り離せない
抽象的な記号操作だけではないからな
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。
その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。
他のプログラマはできないこともあろうが、個人的には、マシン語まで落とした
レベルまでシミュレーションできる。レジスタがどうなるか、フラグレジスタが
どうなるかまで。
やるやん
>>106
言語のルールだから動作原理は考えずに覚えればいいというのは場合によっては思考停止でしょ。
計算量を考慮しなければならない場合、本当に思考に思考を重ねて実装を決定しているのか?ある程度は過去の経験でこうしたら80点みたいなことをやっているでしょ。
テトリスの作り方など、ソースコードを覚えているだけで十分という見方もできるのでは。人間とは粒度が違うという結論にしかならんでしょ。
>>107
それは人間だって一緒だよね。会ったことないクライアントとプログラマーが10分のMTGでまともなプログラム一発で書いてもらうの無理だろ。
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。
自然言語で伝えるのがとても難しいということもある。
プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス
の様に扱われることになるから、GPL汚染がなくなって平和になるかも。
それどうなんかな? AIの生成物の著作権って決着はついてるの?
そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして
有効かどうか議論の余地がある。
著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
別の思想(左翼的)の方向に持っていってしまうし。
日本で判例があるかは承知してないが
GPLでライセンスされたソフトウェアを利用した製品を販売している会社は
GPLが有効であると考えているから必ずGPLの表示している
>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>別の思想(左翼的)の方向に持っていってしまうし。
詳しく
>>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>>別の思想(左翼的)の方向に持っていってしまうし。
>詳しく
著作権法は、作家(文学、映画、ドラマ、アニメ、プログラム)などの作者が
著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
GPLはその目的を明らかに壊す働きになっている。
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
ソースを示してくれるかな?
著作権法の目的(1条) この法律は、著作物並びに実演、レコード、
放送及び有線放送に関し著作 者の権利及びこれに隣接する権利を定め、
これらの文化的所産の公正な利 用に留意しつつ、著作者等の権利の保護を図り、
もつて文化の発展に寄与 することを目的とする。
そのどこに
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
と書いてあるかな?
当時としては、そうとしか考えられなかった。
税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。
>税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。
「他人の著作物を盗もうとする学者」とはどういうこと?
更に想定されていなとは当時は学者がいなかったということ?
GPL感染させて、民間技術者が努力して作った技術を盗もうとしている。
それは認識がおかしいぞ
まずGPLは対価としてお金ではなく
派生物をGPLとせよという契約
対価を支払わないなら使わなければ良い
当たり前のことでは?
盗もうとしてる主体は誰かな?
世の学者集団が結託して
民間技術者が作った技術を盗もうとしている
とでも思っているのかな?
自分達の役割を果たさずに、民間を苦しめている。
サンプルコード検索してみたけど
ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった
小規模なコードで自分で正誤判定できるようなら
圧倒的に時間短縮になるよ
全体として百科事典の様なものを作ることは許されているはず。
GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な
思想。
>GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な思想。
ライセンスに思想があるのかは知らんが
著作権法で保護されているのだから
引用はGPLとGPL以外のもので差はない
専門的な質問の仕方をすると専門的な答えが帰ってくる
アホみたいな質問をするとアホみたいな答えが帰ってくる
アホがアホな会話を無限に楽しむことができてしまう、
どんどん人間の格差を拡大させてしまうツールだ。
なるほどね
アホはアホなりにアホの世界で閉じてくれていて欲しい
専門家は専門家同士でアホはアホ同士で
世の中では同じレベルの人間がコミュニケーションしているのが
反映されているんだろうね
専門家とアホは会話が成立しない
グラフ描いてください
ってのはやってくれないんか
限定的ではあるが以下のようにして書ける
「y=x^2のグラフをpdfで吐き出すgnuplotのソースを書いて」
「半径1の円を描くPostScriptのソースを教えて」
構造化の部分が自然言語モデルで代替されるとすると
(自然言語 → )機械語、アセンブラなど → 構造化言語 → オブジェクト指向言語、関数型言語
ときて、自然言語に回帰というかパラダイムシフトが起ころうとしてるよな
つまり、この次はどうなるんだ・・?
プログラムって01しかわからんCPUにいろんなことを処理させるための手続き
それがAIで進化していくんだからプログラム自体不要になる
AIはプログラムを書けないよ
人が書いたプログラムを真似しているだけ
AIがいくら進化しても新しいものは作れない
ChatGPTの特徴のひとつに文脈を理解するというのがあって
一番最初に(最初でなくとも)
「こうこうこういう(抽象的な)クラスや関数」を定義
次回から私の質問を引数やパラメータとして
定義されたオブジェクトや関数の実行結果を回答してね、
とできるよね
このフィードバックの部分って、
まさに利用者のプログラムじゃないの?ってのを言ってるんだが
大したもんだ
だとしたらちょっと嬉しいこの気持ちは何だ?
3年ほどでAI同士勝手に成長。AIは人のマネをやめ、
プロ棋士がひたすらAIが発見した新たな手法や
新たな大局観覚え込んでるだけというw
上位棋士は全員平日はAI相手にマウスカチカチで教えを乞うだけ、その量を競ってるだけの毎日w
一番高い200万のスレッドリッパーマシン使ってる藤井聡太がますます強くなる構図。
それって明らかに将棋AIを使えるのは
将棋が出来る人の上級者だけってことになってるけどw
一般の将棋指しに将棋AIを与えても
強くなれないよ
google検索術みたいなプロンプトの工夫を自然言語プログラミングと呼ぶ、とすれば
それってプログラミング言語とはまったく別物ってことよね
それこそ森羅万象AGIとしての分岐になると思うが
「テキストエリア置いて」どころか「オシャレなサイト作って」
そのサイトを細かく自然言語で指定できるテンプレートエンジン的な
違うか・・
それをプログラムして提供してるが、今後は何が必要とされるかすら勝手に見つけて
作っておススメしてくるようになる
医者も、幅広く色んなことを知ってないと、臨床では上手く行かないと思うし。
患者「これこれ、こんなことがあって、こんなふうになりました」
医者「あー、それだと恐らくこういう病気です」
みたいになるのは、常識や理解力があるから。
医学だけに精通していては無理。プログラミングも同じ。
プロダクトを効率的に生産することを目指してるやつとで、生産性にも年収にも大差がつくんだろうな
テトリスやインベーダーゲームは、ネットに人間が書いたコードがあるから
すぐに作ってくれるだけだろう。
それだけ専用にハードコーディングしたら、この2つだけは出来る様になる
だろうが、世の中には新ルールの遊びや新仕様のAPIが次々に生まれるから、
そのたびに理解できないと駄目。
じゃんけんが理解できないのに、じゃんけんプログラムは出来るだろう。なぜなら
ネットに人が書いたじゃんけんプログラムのコードが上がってるから。
ChatGPTはルールは理解できてないのに、プログラムだけは出来ているかのように
見えるのは、ずるをしているからだ。
しりとりとじゃんけんならプロンプト次第で解決できそうじゃない?
上手く行かないって報告がある。
そのうちAIではなく人間がハードコーディングした「アルゴリズム」で解決されるかも。
設定すればできそうだけど、そのままだとGPT4でもじゃんけんできないな
しりとりは普通にできたけども
しりとりも続けたら微妙に間違ってたわ
でも両方ともプロンプトでなんとかなりそうな気はするけども
なんとかならないだろうよ。
一度こちらの言葉をひらがなに変換してから答えを考えるように命令すると間違えることはない
それ以外は問題なくしりとりはできる
たぶん英語圏のしりとりに「ん」に該当するルールがないのが原因な気がする
学習で得ることは難しいはず。
間違うことがあることからしてもChatGPTがそこまでのものであるとは思えない。
今まで間違っていたのに、勝手に学習して間違わなくなる、なんてことは
有りそうに無い。
>ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を
>学習で得ることは難しいはず。
脳はしりとりできるのに? 違いは規模?
脳は複雑。
丁寧に言えば、どうして違いが出てくるのかは、余り分かってないと思う。
そもそも、どうしてChatGPTがこんな風に出来ているのかも、説明が難しい
と小耳に挟んだ。
たぶん間違えた部分は単語を英単語で認識してそうな感じがしたから
ひらがなに変換する過程を入れてしりとりをしたから上手くいっただけだと思う
しりとりのプロンプトを改善する過程で、しりとりをする時の認識を聞いたら、「前の言葉の最後の文字で次の言葉を考えることができます。」って言ってるからしりとり自体は上手くいくんだけど
「ん」で終わる言葉を禁止することを覚えさせても「「ん」で終わる言葉が禁止されてるルールは理解してるつもりだけど間違うこともある」みたいな回答だった
理解してても間違うならGPT4だと最後の文字の「ん」を避けるのは難しそう
単純に大規模言語モデルで学習しただけでは、しりとりのような規則を学習する
ことはできないということだと思われる。
今は出来る様になったのは、恐らく、裏で人間がアルゴリズムをハードコーディング
したのだと推定される。知らんけど。
すでに間違ったことを学習してるからだよ
有限の事例から、ロジックを学習するのは難しいからだと思うぞ。
いわゆる「数をこなして学ぶやり方」をしているから。
人間は学習量が少なくても「考える力」を持っている。
推論、論理関係は無理
教えようとしても無理
〈適切な言葉ではありませんが、現在のモデルでは避けられません〉
って注釈つけられた
これは流石にもう無理やな
>〈適切な言葉ではありませんが、現在のモデルでは避けられません〉
>って注釈つけられた
こういうのも、AIではなくて、専用アルゴリズムで何かやってそうだな。
それか、裏で人間のスタッフが何か補助してたりして。
さすがに日本語のしりとりが一部上手く行かないだけで修正しないだろ
人間説はさすがにネタだとは思いたいけど、仮に人力というならchatGPTを維持するために必要な一人あたりの能力を書けるか?
「コンピューターが解釈・動作できるデータ。コンピューターに対する命令をプログラムとして記述すると、
コンピューターはプログラムに指示された手順で計算、入出力などの処理を実行していく。」
この意味で、プロンプトをプログラムと解釈することは字義的に何も問題無いと思われます。
指示したとおりに動作するのがコンピュータなので
プロンプトはプログラムではありません
指示しない動作を行いますし、結果は毎回のように異なります。
ブラウザのChatGPTとかAPIでもデフォルトの場合はtemperatureが0ではないから毎回結果違うだけじゃん?勿論学習データが更新されれば0指定だとしても更新前と更新後とでは結果は異なるけどその場合modelが変わってるってだけだし
工業高校に行くのが一番わかりやすく稼げるし
無駄に奨学金とか払って大学に行くよりも工業高校から就職したほうが良くない??
国は工業高校だけ全部無償化するのが日本として一番良くない?
プログラムを作成するということは仕様を記述[*1]しなければならないので
ChatGPT使って自然言語で書くなら自然言語で仕様を記述しなければならない
仕様が記述されていないところはChatGPTが勝手に補間するので
それが適当かを判断[*2]しなければならない
[*1]に向いているのはプログラミング言語だし
[*2]をやるにはプログラミング言語を読解する能力が必要
無から有は生まれないのだよ
でもchatGPTが進化していけば
今でもそれなりにできるけど
割と誰でもそれなりのものを作れるようになる未来は想像できなくはないだろ
なんか世界全体的にムーアの法則が適応されそうで怖いわ
作るものの規模がそれなりになると
細部の仕様に関して>>238の問題が出る
プログラミング言語を使わないとするなら
全ての取りうる状態に関して
動かしてみてテストをするという
アホな作業をする必要がある
関数とか小規模なものまでだと思うよ
奪うのはコードを書いていただけでプログラマではない人
プログラマの仕事は考えること
昔からプログラミングが難しいのは英語だからとか
勘違いしてるバカが多いんだよ
それに、機能について言葉で説明するのが困難。
「○○というアプリのあの機能と似たような機能を追加して」
「○○というアプリで追加されたあの操作性を、自分のアプリの操作性にも
取り入れたいから、修正して」
みたいにしたいのに、人間プログラマなら出来てもChatGPTにはまだ無理。
「フォトショップについている人のウェストを細くする機能を付けて」
「フォトショップについている物体を消す機能を付けて」
「フォトショップについている人間を自動選択する機能を付けて」
と言っても無理だろう。
人間プログラマの場合、それらしい論文を見つけてきて理解してから
実装して、試しながら完成に近づける可能性がある。
ChatGPTの場合、ネットにコードが出てないと無理だと思う。
言葉だけで書いてある論文からコードに直すのはまだ無理なはずだ。
などと言っても出来るとは思えない。
まだまだだ。
人間なら、時間とお金を貰えれば、ある程度までのものまで作れる人はいるだろう。
なんてできるんだろう。
何かがおかしい。
あるいは要約するのはものすごく得意だからかもしれない
要約するのが得意と言うのは分かる。
しかし、もし、マインドマップを生成するために使った(?) PlantUML を
アルゴリズムでハードコーディングしたのではなく、汎用AI(?)の
ニューラルネットワークで学習したものだとすると、ネットにあがってる(?)
PlantUML の複雑な仕様書(?)を学習によっていつのまには正しく習得したこと
になる。
幼稚園児でも理解できる じゃんけん や しりとり、簡単な辞書順ソートですら
習得できてないのにどうしてそんな複雑なものが習得できたのか、
という不自然さが残る。
これを学習しただけでは
プログラマーが言語仕様完全に把握しないでも問題ないものが出力できるのと一緒
ChatGPTってそういう事をやってくれるもんでしょ
https://pbs.twimg.com/media/Fs9kaxxaMAAi1HG.jpg
https://pbs.twimg.com/media/Fs9kbCNakAEtr_3.jpg
マインドマップ作成も良いけど
マインドマップから逆算するプロンプトって結構いいかなと思ったが
>いくつかのマインドマップのマークアップ言語の例は以下の通りです:
Freemind Markup Language (FreeMind)
MindManager Markup Language (MindManager)
Mind Map Markup Language (XMind)
Markdown Mindmap (Markmap)
Graph Markup Language (GML)
CmapTools Markup Language (CmapTools)
GraphML (Graph Modeling Language)
>その他、独自構文?
PlantUML
Graphviz DOT Language (Graphviz)
Mermaid
TikZ
ASCIIFlow
Draw.io
多すぎ・・
もうプロンプト用にあらたに作った方が良くないか
でも歴史をみてもこういうのって既存のを流用するのが通例だしな
自然言語プロンプトに親和性ありそうな気もするけど
インデント地獄になりそうな気もする
かといってクラスとかガチガチの構文化、
ようは構造化言語、オブジェクト指向言語ライクにしちゃうと
自然言語から遠ざかるというジレンマ
例えば
wikiの全文とか青空文庫の1小説なりのきっちり全文を読み込ませた上で
「要約して」「マインドマップ作って」
というのが一番使い方としては正解で正確なものが出るわけで
「○○の要約して」「○○のマインドマップ作って」
のような従来のgoogle検索みたいな事前に学習したものや予測入れちゃう使い方だと精度が落ちる
でも、もうすぐ検索機能的なのが追加されるんだっけ?
データの部分(データベースなりデータフレームなり)
と、それ以外の部分を分けないといけない
そして、データ部分の構文が必要になってくる
・どこから読み込むのか(ウェブ上かローカルか)
・どの形式で読み込むのか(画像か文章か、テキストならどのテキスト形式か)
みたいな
今考える最小構成はそのくらい
インフォグラフィックスとかマインドマップとかブループリントとか
図式化された(画像形式のファイルとか)情報をを読み込んで回答する
みたいな視覚情報のプロンプトになりそうな気がしてる
そうなれば、図式化するための言語に依存しないし(手書きでも成立する)
イメージプロンプトの流れはすぐやってきそうな気がするので
あとはイメージプロンプトの規格だな
それがマインドマップになるかブループリントになるかまたは別の図式になるか
もちろん、自然言語のただの文章を画像化したのもその括りだろうけど。
グラフみたいな統計データを図表化したみたいなのはデータの括りになって
明確にプロンプトとは棲み分けできるような規格になりそう
具体的なデータ + イメージプロンプト
と1年以内になるかどうか
情緒とかも文章から学ぶのは難しいだろうからなあ
とはいえ画像も優れた描き手の情感は平均化される過程で殺されるから同じようなものかもしれんけど
カメラ、マイク設置は当たり前として
ソフト側で感情分析的なことをしてプロンプトに変換しないといけないけど
例えば顔文字とかハッシュタグを付加して
おすすめの旅行先ピックアップして😢
#悲 #春 #不採用
みたいなことはもうしてる人はいそうな気がする
ようは
「最近、何事も上手く行きません
気分転換に旅行しようと思います
おすすめの旅行先ピックアップして」
上の2行文を省略しても事情を汲み取ってくれる
みたいなのがリッチなプロンプトだと思う
感情やら何かしらのSNSアカウント情報やらウェアラブルデバイスやら連携で、
同じ字面の「おすすめの旅行先ピックアップして」でも
人によって
「おすすめの旅行先ピックアップして😢」
「おすすめの旅行先ピックアップして😁」
を判断してくれる
今気軽に出来ることはテキストでも音声でも
”私事”の部分をより詳細に言語化してプロンプトに含めることだが
自分で言っておきながらそうしなくてもいい時代がすぐに来るイメージがあまり湧かない