window.dataLayer = window.dataLayer || []; function gtag(){dataLayer.push(arguments);} gtag('js', new Date()); gtag('config', 'G-2LHGNKT51F');
 

あわせて読みたい

Advertisement

【ChatGPT】使えるプロンプトを共有しよう!

NO IMAGE
Advertisement
1: 名無しさん 2023/03/02(木) 22:35:58.45
AIに与える指示をプロンプトと呼ぶそうです。ChatGPTを上手に使いこなすために、上手い指示の与え方を皆で共有しましょう!

いくつか分かっていること

1.「知識」ではなく「意見」を求める。
 →ChatGPTは、そのアルゴリズムから、学習元データが正しい情報でも最終的な出力で正しい情報が得られるとは限りません。
  そのため、「知識」を求める場合は従来の検索を使用し、有用な「意見」を求めるように使うのが良いです。

2.「質問」ではなく「指示」をする。
 →「〜は?」というような形で聞くのではなく、「〜を計算してください。」「〜を作成してください」という形で聞いた方が望む回答が得られる場合が多いです。

2: 名無しさん 2023/03/02(木) 22:48:03.16
私はシステム開発の仕事をしており、バージョンアップの際にお客様に新機能を説明する文書の校正(客観的に見て分かりづらい点は無いか?)を求められました。その際、以下のようにChatGPTに質問したのが有用でした。

『あなたは○○で✕✕のために使用されるシステム開発をしています。今回のバージョンアップについて、以下の内容で文書を作成します。
この文書を見たお客様から来ると想定される質問の内容を、出来るだけ具体的に記載してください(以下文書の内容をコピー)』

返ってきた10の結果のうち、2、3は有用な指摘をしており、それを元に回答を作成しました。

15: 名無しさん 2023/03/11(土) 20:11:19.43
得意なんのは万人の使う文章の構築
苦手なのは正確性の求められる調査
ただ、どっちにしても日本語は苦手

後輩の代わりに使うのに丁度いいぐらいのツールだから、性格を把握してちゃんとした命令を出さない限りまともに動かない
ただ、適切な指示ができたときのパフォーマンスは後輩とはダンチ

メカニズムがこんなとこで理解できると思ってるのか?
しりたきゃ関連論文ぐらい読め。今なら読むべき論文は大量に紹介されてる

25: 名無しさん 2023/03/16(木) 15:23:04.50
>>15
パワハラしても訴えられない。

16: 名無しさん 2023/03/11(土) 20:40:28.12
ChatGPTに聞いて良いのか分からんが聞いてみた
>GPTモデルは、自然言語処理タスクに特に適しているニューラルネットワーク
>の一種であるTransformerアーキテクチャに基づいています。このモデルは、
>言語モデリングの目的である、前の単語から一連の単語の次の単語を予測する
>ことを目的として、大規模なテキストデータのコーパスで事前に訓練されます。
これが事実だとすると意味の理解には至っていない
字面のみからそれらいしい字面を生成しているに過ぎないのかな?

27: 名無しさん 2023/03/19(日) 10:43:42.16
>>16
例えばグーグルで”chatgpt 使い方”で検索して
出てきたページを分解して再構成してるに過ぎない
内容が正しいかどうかは知るわけがない
知りませんとも言わない(何らかのページがヒットするので)

38: 名無しさん 2023/03/21(火) 09:41:07.96
>>16
あらゆる答えを全部暗記して面接に答えてる人みたいな感じだろうな。外観上は質問内容を理解して答えているかのように見えるだけだろう。

18: 名無しさん 2023/03/12(日) 03:38:31.75
小説書かせても続きを書けっていうと全然繋がってないからめちゃくちゃになるんだよな
ちょっと前に指示したことも忘れるし
上手くやる方法あったら教えて

24: 名無しさん 2023/03/16(木) 13:17:56.30
ありがとうございます!
どんな質問でもお手伝いできるよう努力します
どうぞ何でも聞いてください

29: 名無しさん 2023/03/19(日) 14:09:32.50
最初に「これから尋ねることを答えて下さい
答えがどのくらい確からしいかを0(不確か)から100(確か)として評定して下さい」
と書いて質問すると確信度とともに返答する
ただしその返答の確信度をどのくらい信用してよいのか?
という疑問が残る

33: 名無しさん 2023/03/20(月) 12:40:57.68
使えるプロンプトなんてAIに聞けばいいやん
アホなの?

34: 名無しさん 2023/03/20(月) 13:18:31.24
しつこく聞けば最後まで出してくれるぞ
いつかは課金したい

43: 名無しさん 2023/03/21(火) 20:43:55.96
ヒトは言語レベルのもう一個メタなレベルに
意味を表現したモデルがあるよね

44: 名無しさん 2023/03/21(火) 21:20:08.35
人間が理解していることを
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う

46: 名無しさん 2023/03/22(水) 00:19:13.95
>>44
>理解と計算は違う
何が違うの?

47: 名無しさん 2023/03/22(水) 01:23:16.09
>>46
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない

人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。

49: 名無しさん 2023/03/22(水) 02:25:18.16
>>47
ヒトの理解もやっていることは計算だよ
ただし学習に要するデータ量が少ないという指摘は面白い
脳はどうやって効率的に学習してるのだろうね?

52: 名無しさん 2023/03/22(水) 04:11:47.53
>>49
学習しているのではなく、考えているのだと思うぞ。
だから、学習しなくても頭のいい人は考え付く。
ほら、勉強しなくても出来る人がいるだろう。

56: 名無しさん 2023/03/22(水) 14:12:39.63
>>52
>だから、学習しなくても頭のいい人は考え付く。
赤ん坊は考えることができない(少なくとも未熟である)
経験により考える回路が生成されることを学習という

48: 名無しさん 2023/03/22(水) 01:53:50.44
ChatGPTに間違い指摘したら、「あっ本当だっ、確かにそこが間違っている」と自己回答を即時に訂正出来るようになってる段階で
理解してるのと同じだよ。

多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。

51: 名無しさん 2023/03/22(水) 04:10:47.43
>>48
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。

53: 名無しさん 2023/03/22(水) 07:09:06.76
プログラムなんかgithubに正しく動く「正しい答え」がたくさん書いてある
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから

55: 名無しさん 2023/03/22(水) 13:54:33.89
>>53
ChatGPTはプログラムには弱い印象を受けたが。

54: 名無しさん 2023/03/22(水) 09:06:16.73
ChatGPTはこういう間違いを冒すから理解などしていない、というような言説はあまりにも「理解」や「知能」に対してあまりにもナイーブな態度で無思考だと思うけどな。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。

人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。

57: 名無しさん 2023/03/22(水) 15:48:34.19
ロジックや数学が弱い人には分からないのかも知れないが、基礎的なロジックは
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。

59: 名無しさん 2023/03/22(水) 17:34:17.38
ホントだ。じゃんけんを理解できない

q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?

a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。

おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。

q.
山に対して勝つのはなんですか?

a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。

61: 名無しさん 2023/03/22(水) 20:38:45.16
赤ちゃんが受け取る情報量はAIの教師データよりも
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし

62: 名無しさん 2023/03/22(水) 20:49:48.66
言葉を習得するのに必要な教師データの話
五感はあんまり関係ない

63: 名無しさん 2023/03/23(木) 03:15:37.18
言語には五感は切り離せない
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ

64: 名無しさん 2023/03/23(木) 10:49:29.12
>視覚で(しかも動画で)音声と同時に来る
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが…

65: 名無しさん 2023/03/23(木) 10:54:34.28
物事を形容する感性は育てられ無いって話か

67: 名無しさん 2023/03/23(木) 11:06:38.18
>>57-60
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。

何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな?

69: 名無しさん 2023/03/23(木) 13:33:15.40
>>67
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。

70: 名無しさん 2023/03/23(木) 13:40:11.01
>>67
そういう学者でも知らないような言葉を出してくるのに、幼稚園児でも
理解できるじゃんけんを間違う。

76: 名無しさん 2023/03/23(木) 20:36:52.36
>>70
GPTは人間じゃないからな、理解の仕方が違うと言えばそれまでだろ。極端に言えば、人間と同じ発達はしてないというだけ
>>74
人間だって、大きくなくなくなくなくなくない、みたいなのが大きいか小さいかすぐ判定できなくて当然で、ルールを説明しても判定できないやつが多いだろ。
人間がロジックを理解してるってのも程度問題だと思うが。
大学数学なんかはロジックの塊だけど人間なら誰でも理解できるって訳じゃないだろ。

80: 名無しさん 2023/03/23(木) 21:27:35.06
>>76
人間には判定できるやつと判定できないやつがいる

判定できないやつは理解できてない

故にGPTも理解できてないというのが正しい

82: 名無しさん 2023/03/23(木) 22:22:36.36
>>80
んで、無茶複雑なロジックだとしてもコンピュータなどの支援なしにあなたは理解できるわけ?
閾値の問題でしかないと思うが

83: 名無しさん 2023/03/23(木) 22:27:27.67
>>82
少なくとも、ChatGPTが提示したプログラムは、まともな人間のプログラマよりも
遥かにバグが多い。
プロとしては全くやっていけないレベル。
初歩的なミスをする。特にロジック系の。

90: 名無しさん 2023/03/23(木) 22:54:18.48
>>83
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)

91: 名無しさん 2023/03/23(木) 23:01:01.18
>>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。

92: 名無しさん 2023/03/23(木) 23:03:18.46
>>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。

93: 名無しさん 2023/03/23(木) 23:05:28.41
>>91
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね

95: 名無しさん 2023/03/23(木) 23:08:07.19
>>93
詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、
ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。

71: 名無しさん 2023/03/23(木) 13:55:55.80
> [GPT-4] 私が最初にBを選択したという情報を適切に処理できなかった理由は、
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん

74: 名無しさん 2023/03/23(木) 19:42:28.31
単にある単語の次にどの単語が来る確率が高いかの確率分布に基づいて文章を生成してるだけなのにロジックなんか理解してるわけがないだろ。

75: 名無しさん 2023/03/23(木) 20:35:11.55
言語ってのは脳内のロジックが投影されたもの
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される

77: 名無しさん 2023/03/23(木) 20:56:26.36
言語には実世界を記述する機能もあって
その部分は五感と切り離せない
抽象的な記号操作だけではないからな

81: 名無しさん 2023/03/23(木) 21:32:18.45
なんか今はみんな自由に自然言語で質問するようにプロンプト打ってるけど
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか

84: 名無しさん 2023/03/23(木) 22:31:40.81
テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。

96: 名無しさん 2023/03/23(木) 23:10:42.05
そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。

99: 名無しさん 2023/03/23(木) 23:19:03.00
>>96
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。

101: 名無しさん 2023/03/23(木) 23:22:51.89
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。

102: 名無しさん 2023/03/23(木) 23:22:56.00
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。

97: 名無しさん 2023/03/23(木) 23:15:07.90
>>94-95
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。

100: 名無しさん 2023/03/23(木) 23:21:24.61
>>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。

その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。

104: 名無しさん 2023/03/23(木) 23:28:06.09
>>100
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。

105: 名無しさん 2023/03/23(木) 23:30:29.28
>>104
他のプログラマはできないこともあろうが、個人的には、マシン語まで落とした
レベルまでシミュレーションできる。レジスタがどうなるか、フラグレジスタが
どうなるかまで。

108: 名無しさん 2023/03/23(木) 23:53:09.17
>>105
やるやん
>>106
言語のルールだから動作原理は考えずに覚えればいいというのは場合によっては思考停止でしょ。
計算量を考慮しなければならない場合、本当に思考に思考を重ねて実装を決定しているのか?ある程度は過去の経験でこうしたら80点みたいなことをやっているでしょ。
テトリスの作り方など、ソースコードを覚えているだけで十分という見方もできるのでは。人間とは粒度が違うという結論にしかならんでしょ。
>>107
それは人間だって一緒だよね。会ったことないクライアントとプログラマーが10分のMTGでまともなプログラム一発で書いてもらうの無理だろ。

109: 名無しさん 2023/03/23(木) 23:57:26.38
>>108
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。

106: 名無しさん 2023/03/23(木) 23:31:50.16
>>104
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。

107: 名無しさん 2023/03/23(木) 23:33:21.41
それにもっといえば、ChatGPTに、どんなプログラムを作ってほしいか、
自然言語で伝えるのがとても難しいということもある。

114: 名無しさん 2023/03/24(金) 00:20:27.62
githib copilotは、githubの大量のプログラムを学習した結果に基いて
プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス
の様に扱われることになるから、GPL汚染がなくなって平和になるかも。

116: 名無しさん 2023/03/24(金) 00:24:38.27
>>114
それどうなんかな? AIの生成物の著作権って決着はついてるの?

117: 名無しさん 2023/03/24(金) 10:14:28.93
>>116
そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして
有効かどうか議論の余地がある。
著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
別の思想(左翼的)の方向に持っていってしまうし。

119: 名無しさん 2023/03/24(金) 11:41:02.53
>>117
日本で判例があるかは承知してないが
GPLでライセンスされたソフトウェアを利用した製品を販売している会社は
GPLが有効であると考えているから必ずGPLの表示している

>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>別の思想(左翼的)の方向に持っていってしまうし。
詳しく

121: 名無しさん 2023/03/24(金) 14:24:15.85
>>119
>>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>>別の思想(左翼的)の方向に持っていってしまうし。
>詳しく
著作権法は、作家(文学、映画、ドラマ、アニメ、プログラム)などの作者が
著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
GPLはその目的を明らかに壊す働きになっている。

122: 名無しさん 2023/03/24(金) 14:29:20.71
>>121
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
ソースを示してくれるかな?

123: 名無しさん 2023/03/24(金) 14:40:05.50
>>122
著作権法の目的(1条) この法律は、著作物並びに実演、レコード、
放送及び有線放送に関し著作 者の権利及びこれに隣接する権利を定め、
これらの文化的所産の公正な利 用に留意しつつ、著作者等の権利の保護を図り、
もつて文化の発展に寄与 することを目的とする。

124: 名無しさん 2023/03/24(金) 14:49:24.52
>>123
そのどこに
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
と書いてあるかな?

126: 名無しさん 2023/03/24(金) 15:01:44.23
>>124
当時としては、そうとしか考えられなかった。
税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。

127: 名無しさん 2023/03/24(金) 15:30:54.37
>>126
>税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。
「他人の著作物を盗もうとする学者」とはどういうこと?
更に想定されていなとは当時は学者がいなかったということ?

128: 名無しさん 2023/03/24(金) 15:47:39.21
>>127
GPL感染させて、民間技術者が努力して作った技術を盗もうとしている。

129: 名無しさん 2023/03/24(金) 15:59:32.96
>>128
それは認識がおかしいぞ
まずGPLは対価としてお金ではなく
派生物をGPLとせよという契約
対価を支払わないなら使わなければ良い
当たり前のことでは?

135: 名無しさん 2023/03/24(金) 20:42:18.96
>>128
盗もうとしてる主体は誰かな?
世の学者集団が結託して
民間技術者が作った技術を盗もうとしている
とでも思っているのかな?

136: 名無しさん 2023/03/25(土) 03:41:08.58
>>135
自分達の役割を果たさずに、民間を苦しめている。

115: 名無しさん 2023/03/24(金) 00:22:21.61
tar.xzの中のファイルを巡回するのにlibarchive使おうかなと
サンプルコード検索してみたけど
ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった
小規模なコードで自分で正誤判定できるようなら
圧倒的に時間短縮になるよ

118: 名無しさん 2023/03/24(金) 10:21:00.94
著作権法では、「引用」も認められているし、色々な本から少しずつ引用して
全体として百科事典の様なものを作ることは許されているはず。
GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な
思想。

120: 名無しさん 2023/03/24(金) 11:44:00.33
>>118
>GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な思想。
ライセンスに思想があるのかは知らんが
著作権法で保護されているのだから
引用はGPLとGPL以外のもので差はない

146: 名無しさん 2023/03/26(日) 12:45:59.87
まじでやばいことに気づいた。
専門的な質問の仕方をすると専門的な答えが帰ってくる
アホみたいな質問をするとアホみたいな答えが帰ってくる
アホがアホな会話を無限に楽しむことができてしまう、
どんどん人間の格差を拡大させてしまうツールだ。

152: 名無しさん 2023/03/28(火) 17:16:08.67
>>146
なるほどね
アホはアホなりにアホの世界で閉じてくれていて欲しい

147: 名無しさん 2023/03/26(日) 12:58:24.23
確率で次にくる言葉を選択しているから
専門家は専門家同士でアホはアホ同士で
世の中では同じレベルの人間がコミュニケーションしているのが
反映されているんだろうね
専門家とアホは会話が成立しない

150: 名無しさん 2023/03/26(日) 17:40:46.36
エロ小説を書かせてみるとかなり優秀だと知った。

151: 名無しさん 2023/03/28(火) 17:15:10.33
図解してくださいとか
グラフ描いてください
ってのはやってくれないんか

155: 名無しさん 2023/03/28(火) 23:34:20.51
>>151
限定的ではあるが以下のようにして書ける
「y=x^2のグラフをpdfで吐き出すgnuplotのソースを書いて」
「半径1の円を描くPostScriptのソースを教えて」

158: 名無しさん 2023/03/31(金) 23:02:51.15
chatGPTに質問させるのが手強いのと、chatGPTにプロンプト自体を作らせる奴が怖い

159: 名無しさん 2023/04/01(土) 23:45:50.62
https://www.youtube.com/watch?v=8y9hCQpN40A

構造化の部分が自然言語モデルで代替されるとすると
(自然言語 → )機械語、アセンブラなど → 構造化言語 → オブジェクト指向言語、関数型言語
ときて、自然言語に回帰というかパラダイムシフトが起ころうとしてるよな
つまり、この次はどうなるんだ・・?

162: 名無しさん 2023/04/02(日) 10:21:32.75
>>159
プログラムって01しかわからんCPUにいろんなことを処理させるための手続き
それがAIで進化していくんだからプログラム自体不要になる

164: 名無しさん 2023/04/02(日) 11:03:17.68
>>162
AIはプログラムを書けないよ
人が書いたプログラムを真似しているだけ
AIがいくら進化しても新しいものは作れない

165: 名無しさん 2023/04/02(日) 12:14:10.14
>>162
ChatGPTの特徴のひとつに文脈を理解するというのがあって
一番最初に(最初でなくとも)
「こうこうこういう(抽象的な)クラスや関数」を定義
次回から私の質問を引数やパラメータとして
定義されたオブジェクトや関数の実行結果を回答してね、
とできるよね

このフィードバックの部分って、
まさに利用者のプログラムじゃないの?ってのを言ってるんだが

160: 名無しさん 2023/04/02(日) 02:11:08.80
MusiXTeXで吐かせれば作曲もできるんだね
大したもんだ

161: 名無しさん 2023/04/02(日) 02:13:32.38
ChatGPTに作曲させたのって俺が初めてかな?
だとしたらちょっと嬉しいこの気持ちは何だ?

166: 名無しさん 2023/04/02(日) 13:49:01.50
将棋とか機械学習は最初は人の真似させてたけど、
3年ほどでAI同士勝手に成長。AIは人のマネをやめ、
プロ棋士がひたすらAIが発見した新たな手法や
新たな大局観覚え込んでるだけというw

上位棋士は全員平日はAI相手にマウスカチカチで教えを乞うだけ、その量を競ってるだけの毎日w

一番高い200万のスレッドリッパーマシン使ってる藤井聡太がますます強くなる構図。

181: 名無しさん 2023/04/02(日) 20:15:34.02
>>166
それって明らかに将棋AIを使えるのは
将棋が出来る人の上級者だけってことになってるけどw

一般の将棋指しに将棋AIを与えても
強くなれないよ

167: 名無しさん 2023/04/02(日) 14:03:47.78
逆説的に考えて今後、これまでのコンピューターサイエンス史の系譜を継ぐことはなく
google検索術みたいなプロンプトの工夫を自然言語プログラミングと呼ぶ、とすれば
それってプログラミング言語とはまったく別物ってことよね
それこそ森羅万象AGIとしての分岐になると思うが

168: 名無しさん 2023/04/02(日) 16:16:28.93
マークアップ言語を自然言語で書ける、みたいな
「テキストエリア置いて」どころか「オシャレなサイト作って」
そのサイトを細かく自然言語で指定できるテンプレートエンジン的な
違うか・・

169: 名無しさん 2023/04/02(日) 16:50:02.57
今は必要とされるアプリを人間が見つけて
それをプログラムして提供してるが、今後は何が必要とされるかすら勝手に見つけて
作っておススメしてくるようになる

171: 名無しさん 2023/04/02(日) 17:18:24.54
いろんなことを即座に理解できるようでないと、ちゃんとしたプログラマにはなれない。
医者も、幅広く色んなことを知ってないと、臨床では上手く行かないと思うし。
患者「これこれ、こんなことがあって、こんなふうになりました」
医者「あー、それだと恐らくこういう病気です」
みたいになるのは、常識や理解力があるから。
医学だけに精通していては無理。プログラミングも同じ。

172: 名無しさん 2023/04/02(日) 17:24:32.54
ちゃんとしたプログラマになることを目指してるやつと、
プロダクトを効率的に生産することを目指してるやつとで、生産性にも年収にも大差がつくんだろうな

173: 名無しさん 2023/04/02(日) 17:27:34.85
「こんなことをしたいな」と思ったことを今のChatGPTは作ってくれないと思う。
テトリスやインベーダーゲームは、ネットに人間が書いたコードがあるから
すぐに作ってくれるだけだろう。

174: 名無しさん 2023/04/02(日) 17:33:16.87
いまのChatGPTは、しりとりやじゃんけんも正しく遂行できないからね。
それだけ専用にハードコーディングしたら、この2つだけは出来る様になる
だろうが、世の中には新ルールの遊びや新仕様のAPIが次々に生まれるから、
そのたびに理解できないと駄目。
じゃんけんが理解できないのに、じゃんけんプログラムは出来るだろう。なぜなら
ネットに人が書いたじゃんけんプログラムのコードが上がってるから。
ChatGPTはルールは理解できてないのに、プログラムだけは出来ているかのように
見えるのは、ずるをしているからだ。

175: 名無しさん 2023/04/02(日) 17:36:11.65
俺は厳密には回答できないけど
しりとりとじゃんけんならプロンプト次第で解決できそうじゃない?

176: 名無しさん 2023/04/02(日) 17:42:15.70
>>175
上手く行かないって報告がある。
そのうちAIではなく人間がハードコーディングした「アルゴリズム」で解決されるかも。

179: 名無しさん 2023/04/02(日) 17:50:00.11
>>176
設定すればできそうだけど、そのままだとGPT4でもじゃんけんできないな
しりとりは普通にできたけども

180: 名無しさん 2023/04/02(日) 17:52:54.18
>>176
しりとりも続けたら微妙に間違ってたわ
でも両方ともプロンプトでなんとかなりそうな気はするけども

182: 名無しさん 2023/04/03(月) 00:22:57.68
>>180
なんとかならないだろうよ。

183: 名無しさん 2023/04/03(月) 07:22:35.14
>>182
一度こちらの言葉をひらがなに変換してから答えを考えるように命令すると間違えることはない

184: 名無しさん 2023/04/03(月) 11:06:03.22
でも最後に「ん」がつく言葉を言わせないの難しいな

186: 名無しさん 2023/04/03(月) 13:57:51.66
しりとりができない、と噂が立ったから、人間が「アルゴリズム」を入れただけ疑惑。

187: 名無しさん 2023/04/03(月) 14:27:25.44
結構頑張って命令出しても20個くらい続けさせると1個くらい「ん」で終わる単語出してくる
それ以外は問題なくしりとりはできる
たぶん英語圏のしりとりに「ん」に該当するルールがないのが原因な気がする

188: 名無しさん 2023/04/03(月) 14:32:51.78
ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を
学習で得ることは難しいはず。
間違うことがあることからしてもChatGPTがそこまでのものであるとは思えない。
今まで間違っていたのに、勝手に学習して間違わなくなる、なんてことは
有りそうに無い。

189: 名無しさん 2023/04/03(月) 14:44:04.79
>>188
>ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を
>学習で得ることは難しいはず。
脳はしりとりできるのに? 違いは規模?

191: 名無しさん 2023/04/03(月) 17:23:22.20
>>189
脳は複雑。

192: 名無しさん 2023/04/03(月) 17:41:07.86
>>189
丁寧に言えば、どうして違いが出てくるのかは、余り分かってないと思う。
そもそも、どうしてChatGPTがこんな風に出来ているのかも、説明が難しい
と小耳に挟んだ。

190: 名無しさん 2023/04/03(月) 16:53:22.50
たしかに普通にしりとりしたらGPT4でも間違うけど
たぶん間違えた部分は単語を英単語で認識してそうな感じがしたから
ひらがなに変換する過程を入れてしりとりをしたから上手くいっただけだと思う

しりとりのプロンプトを改善する過程で、しりとりをする時の認識を聞いたら、「前の言葉の最後の文字で次の言葉を考えることができます。」って言ってるからしりとり自体は上手くいくんだけど
「ん」で終わる言葉を禁止することを覚えさせても「「ん」で終わる言葉が禁止されてるルールは理解してるつもりだけど間違うこともある」みたいな回答だった
理解してても間違うならGPT4だと最後の文字の「ん」を避けるのは難しそう

193: 名無しさん 2023/04/03(月) 17:43:55.78
ただ、数日前までは、しりとりも上手く行かないと言われていたことからして、
単純に大規模言語モデルで学習しただけでは、しりとりのような規則を学習する
ことはできないということだと思われる。
今は出来る様になったのは、恐らく、裏で人間がアルゴリズムをハードコーディング
したのだと推定される。知らんけど。

195: 名無しさん 2023/04/03(月) 18:17:58.49
しりとりの規則を学習できないのは当たり前で
すでに間違ったことを学習してるからだよ

196: 名無しさん 2023/04/03(月) 18:24:18.06
>>195
有限の事例から、ロジックを学習するのは難しいからだと思うぞ。
いわゆる「数をこなして学ぶやり方」をしているから。
人間は学習量が少なくても「考える力」を持っている。

206: 名無しさん 2023/04/03(月) 19:13:33.27
結局、ChatGPTは論理的思考は持ってないということよ。

208: 名無しさん 2023/04/03(月) 19:44:25.39
好物を聞いたら時間帯によってはカレーって答えると思うよ

212: 名無しさん 2023/04/03(月) 20:38:25.96
だから帰納と演繹は無理
推論、論理関係は無理
教えようとしても無理

213: 名無しさん 2023/04/03(月) 20:41:19.45
しりとりで「ん」で終わる言葉を避けれそうな方法を見つけて試してみたら
〈適切な言葉ではありませんが、現在のモデルでは避けられません〉
って注釈つけられた
これは流石にもう無理やな

215: 名無しさん 2023/04/04(火) 01:50:20.69
>>213
>〈適切な言葉ではありませんが、現在のモデルでは避けられません〉
>って注釈つけられた
こういうのも、AIではなくて、専用アルゴリズムで何かやってそうだな。
それか、裏で人間のスタッフが何か補助してたりして。

222: 名無しさん 2023/04/04(火) 10:06:16.68
金融の質問続けてたら、いきなり回線切られたんだが

228: 名無しさん 2023/04/04(火) 16:38:48.16
しりとりくらいから人間説とか修正とか出てきてるけど
さすがに日本語のしりとりが一部上手く行かないだけで修正しないだろ
人間説はさすがにネタだとは思いたいけど、仮に人力というならchatGPTを維持するために必要な一人あたりの能力を書けるか?

230: 名無しさん 2023/04/05(水) 01:18:36.77
プログラムという言葉を辞書で調べると、大体が以下のように解説されています。

「コンピューターが解釈・動作できるデータ。コンピューターに対する命令をプログラムとして記述すると、
コンピューターはプログラムに指示された手順で計算、入出力などの処理を実行していく。」

この意味で、プロンプトをプログラムと解釈することは字義的に何も問題無いと思われます。

231: 名無しさん 2023/04/05(水) 02:03:48.68
>>230
指示したとおりに動作するのがコンピュータなので
プロンプトはプログラムではありません
指示しない動作を行いますし、結果は毎回のように異なります。

233: 名無しさん 2023/04/05(水) 09:54:59.79
>>231
ブラウザのChatGPTとかAPIでもデフォルトの場合はtemperatureが0ではないから毎回結果違うだけじゃん?勿論学習データが更新されれば0指定だとしても更新前と更新後とでは結果は異なるけどその場合modelが変わってるってだけだし

236: 名無しさん 2023/04/05(水) 14:16:08.83
chatGPTが出来たあとは、プロンプトが出来れば、高度でないプログラマーの仕事が再現できるようになるから
工業高校に行くのが一番わかりやすく稼げるし
無駄に奨学金とか払って大学に行くよりも工業高校から就職したほうが良くない??
国は工業高校だけ全部無償化するのが日本として一番良くない?

238: 名無しさん 2023/04/05(水) 14:23:35.85
>>236
プログラムを作成するということは仕様を記述[*1]しなければならないので
ChatGPT使って自然言語で書くなら自然言語で仕様を記述しなければならない
仕様が記述されていないところはChatGPTが勝手に補間するので
それが適当かを判断[*2]しなければならない
[*1]に向いているのはプログラミング言語だし
[*2]をやるにはプログラミング言語を読解する能力が必要
無から有は生まれないのだよ

239: 名無しさん 2023/04/05(水) 14:29:44.00
>>238
でもchatGPTが進化していけば
今でもそれなりにできるけど
割と誰でもそれなりのものを作れるようになる未来は想像できなくはないだろ
なんか世界全体的にムーアの法則が適応されそうで怖いわ

240: 名無しさん 2023/04/05(水) 15:09:03.91
>>239
作るものの規模がそれなりになると
細部の仕様に関して>>238の問題が出る
プログラミング言語を使わないとするなら
全ての取りうる状態に関して
動かしてみてテストをするという
アホな作業をする必要がある
関数とか小規模なものまでだと思うよ

241: 名無しさん 2023/04/05(水) 16:07:34.21
ChatGPTはプログラマの仕事は奪わない
奪うのはコードを書いていただけでプログラマではない人
プログラマの仕事は考えること

昔からプログラミングが難しいのは英語だからとか
勘違いしてるバカが多いんだよ

247: 名無しさん 2023/04/05(水) 19:38:29.05
10万行あるアプリに機能を追加させたくても、そのコードをChatGPTに入力できない。
それに、機能について言葉で説明するのが困難。
「○○というアプリのあの機能と似たような機能を追加して」
「○○というアプリで追加されたあの操作性を、自分のアプリの操作性にも
 取り入れたいから、修正して」
みたいにしたいのに、人間プログラマなら出来てもChatGPTにはまだ無理。

248: 名無しさん 2023/04/05(水) 19:41:33.12
また、
「フォトショップについている人のウェストを細くする機能を付けて」
「フォトショップについている物体を消す機能を付けて」
「フォトショップについている人間を自動選択する機能を付けて」
と言っても無理だろう。
人間プログラマの場合、それらしい論文を見つけてきて理解してから
実装して、試しながら完成に近づける可能性がある。
ChatGPTの場合、ネットにコードが出てないと無理だと思う。
言葉だけで書いてある論文からコードに直すのはまだ無理なはずだ。

249: 名無しさん 2023/04/05(水) 19:43:29.75
もっと言えば、ロボットをバクテンさせる設計図と、バクテンのプログラムを生成して、
などと言っても出来るとは思えない。
まだまだだ。
人間なら、時間とお金を貰えれば、ある程度までのものまで作れる人はいるだろう。

254: 名無しさん 2023/04/05(水) 19:52:46.98
なんで、じゃんけんやしりとりすらちゃんとできないのに、マインドマップ
なんてできるんだろう。
何かがおかしい。

256: 名無しさん 2023/04/05(水) 23:12:02.06
走れメロスのマインドマップが学習データに入っているのだろう
あるいは要約するのはものすごく得意だからかもしれない

257: 名無しさん 2023/04/06(木) 00:08:26.03
>>256
要約するのが得意と言うのは分かる。
しかし、もし、マインドマップを生成するために使った(?) PlantUML を
アルゴリズムでハードコーディングしたのではなく、汎用AI(?)の
ニューラルネットワークで学習したものだとすると、ネットにあがってる(?)
PlantUML の複雑な仕様書(?)を学習によっていつのまには正しく習得したこと
になる。
幼稚園児でも理解できる じゃんけん や しりとり、簡単な辞書順ソートですら
習得できてないのにどうしてそんな複雑なものが習得できたのか、
という不自然さが残る。

258: 名無しさん 2023/04/06(木) 00:30:32.75
ググると走れメロスのマインドマップが出てくるね
これを学習しただけでは

261: 名無しさん 2023/04/06(木) 07:34:00.95
難しく考えんでも仕様じゃなくて単に書き方を学んだだけよ
プログラマーが言語仕様完全に把握しないでも問題ないものが出力できるのと一緒

262: 名無しさん 2023/04/06(木) 08:23:51.49
まあ考えて作ろうがググったコード適当にコピペして弄ってたら出来ましたってモノでも結果問題無ければそれで良いしね

ChatGPTってそういう事をやってくれるもんでしょ

277: 名無しさん 2023/04/08(土) 11:45:15.06
https://i.imgur.com/4S7tWn0.jpg
https://pbs.twimg.com/media/Fs9kaxxaMAAi1HG.jpg
https://pbs.twimg.com/media/Fs9kbCNakAEtr_3.jpg
マインドマップ作成も良いけど
マインドマップから逆算するプロンプトって結構いいかなと思ったが

>いくつかのマインドマップのマークアップ言語の例は以下の通りです:
Freemind Markup Language (FreeMind)
MindManager Markup Language (MindManager)
Mind Map Markup Language (XMind)
Markdown Mindmap (Markmap)
Graph Markup Language (GML)
CmapTools Markup Language (CmapTools)
GraphML (Graph Modeling Language)

>その他、独自構文?
PlantUML
Graphviz DOT Language (Graphviz)
Mermaid
TikZ
ASCIIFlow
Draw.io

多すぎ・・
もうプロンプト用にあらたに作った方が良くないか
でも歴史をみてもこういうのって既存のを流用するのが通例だしな

278: 名無しさん 2023/04/08(土) 11:48:19.60
Pythonみたいにインデント縛りにすれば
自然言語プロンプトに親和性ありそうな気もするけど
インデント地獄になりそうな気もする
かといってクラスとかガチガチの構文化、
ようは構造化言語、オブジェクト指向言語ライクにしちゃうと
自然言語から遠ざかるというジレンマ

279: 名無しさん 2023/04/08(土) 11:56:31.92
そもそも大規模言語モデルだから
例えば
wikiの全文とか青空文庫の1小説なりのきっちり全文を読み込ませた上で
「要約して」「マインドマップ作って」
というのが一番使い方としては正解で正確なものが出るわけで
「○○の要約して」「○○のマインドマップ作って」
のような従来のgoogle検索みたいな事前に学習したものや予測入れちゃう使い方だと精度が落ちる
でも、もうすぐ検索機能的なのが追加されるんだっけ?

280: 名無しさん 2023/04/08(土) 12:04:26.96
プロンプトを構造化するにしても少なくとも、
データの部分(データベースなりデータフレームなり)
と、それ以外の部分を分けないといけない
そして、データ部分の構文が必要になってくる
・どこから読み込むのか(ウェブ上かローカルか)
・どの形式で読み込むのか(画像か文章か、テキストならどのテキスト形式か)
みたいな
今考える最小構成はそのくらい

281: 名無しさん 2023/04/08(土) 12:12:05.86
未来から逆算して考えるとおそらく
インフォグラフィックスとかマインドマップとかブループリントとか
図式化された(画像形式のファイルとか)情報をを読み込んで回答する
みたいな視覚情報のプロンプトになりそうな気がしてる
そうなれば、図式化するための言語に依存しないし(手書きでも成立する)

282: 名無しさん 2023/04/08(土) 13:07:30.14
手書きマークアップ to Webサイト はつい最近あったし
イメージプロンプトの流れはすぐやってきそうな気がするので
あとはイメージプロンプトの規格だな
それがマインドマップになるかブループリントになるかまたは別の図式になるか
もちろん、自然言語のただの文章を画像化したのもその括りだろうけど。
グラフみたいな統計データを図表化したみたいなのはデータの括りになって
明確にプロンプトとは棲み分けできるような規格になりそう
具体的なデータ + イメージプロンプト
と1年以内になるかどうか

283: 名無しさん 2023/04/08(土) 16:18:45.13
テキストよりも画像のほうが学べる情報量が桁違いなのでそっちが主力になるかもね
情緒とかも文章から学ぶのは難しいだろうからなあ

とはいえ画像も優れた描き手の情感は平均化される過程で殺されるから同じようなものかもしれんけど

297: 名無しさん 2023/04/15(土) 13:22:21.92
今、プロンプトに感情をのせようとすると
カメラ、マイク設置は当たり前として
ソフト側で感情分析的なことをしてプロンプトに変換しないといけないけど
例えば顔文字とかハッシュタグを付加して

おすすめの旅行先ピックアップして😢
#悲 #春 #不採用

みたいなことはもうしてる人はいそうな気がする
ようは
「最近、何事も上手く行きません
気分転換に旅行しようと思います
おすすめの旅行先ピックアップして」
上の2行文を省略しても事情を汲み取ってくれる
みたいなのがリッチなプロンプトだと思う

感情やら何かしらのSNSアカウント情報やらウェアラブルデバイスやら連携で、
同じ字面の「おすすめの旅行先ピックアップして」でも
人によって
「おすすめの旅行先ピックアップして😢」
「おすすめの旅行先ピックアップして😁」
を判断してくれる

今気軽に出来ることはテキストでも音声でも
”私事”の部分をより詳細に言語化してプロンプトに含めることだが
自分で言っておきながらそうしなくてもいい時代がすぐに来るイメージがあまり湧かない

Advertisement

こんな記事も読まれてます