【IT】プログラミングに関するChatGPTの回答、半数以上に何らかの間違いが含まれるとの研究結果
あわせて読みたい
知ってる
ChatGPTは
平気で嘘をついているのか
間違っているのか
分かっているけど一旦適当に応えているのか
指摘すると謝って別の回答を提示するけど
反省はしていないように感じる
>>3
やる気のない時は適当に答えてる
苦情が入ってきたら本気を出す
そんなことはわかって上で使ってる。それでも自分で書くより圧倒的に早く書ける
間違いを見つけたら直せばいいのよ
勘定系や学術系、法務系に使わなければ問題ない
まあスキルの低い奴にとってはありがたいんだろうな
BASICで数当てゲーム作らせたらバグだらけだった
解のない、または状況で正解が変わる
ふわっとした回答のほうが得意なんだよね
人間がAIに求めるのは真逆なんだけど
最近複数回答するのようになってめんどくさくなった
ここ最近やってないけど
間違ってる箇所を指摘し続ければ直すぞ
AIは正解が必要なものよりも、正解がない文系のお仕事向き。
弁護士とか法案制定とかだね。
>>16
3.5では根拠条文を捏造してたから安心はできない
4oはあんまり嘘つかないけどね
けど、安心して使うには、校閲、ブレインストーム、要約あたりが無難
プログラミングは見る人が見ればわかるからプログラマが使う分には困らないんだよ
こういう記事を真に受けて生産性を上げる機会を失うのもったいなさすごる
>>17
これ。
雛形作るには十二分なんだよな。
>「Stack Overflow」における517の質問に対するChatGPTの回答を分析したところ
そもそも学習してるStackOverflowの回答が間違ってるからな。
AIが出力した間違った情報がインターネットに広がって、それをまたAIが学習してえらいことになり始めているとか
いい加減な知識しか持たない奴ばっかになって何かあっても対応できなくなる未来しかない
文章を書くってのが当たり障りの無い単語でマス目を埋める作業だと思ってる人間多いからな。
そういう人間にとっては当たり障りの無い単語を吐き出しげくれるのはありがたいだろうな。
間違ってるけど、打鍵数が減ったし楽だわ
人間使っても同じようなもん
ざっくりしたものしか作れんよな今のとこ
こまかな定義が求められる現場じゃまるで使えん
AIが書いたコードでもテストして動けば問題なし
行数増えてきたらもうAIに書かせて後はテストの繰り返し
それでも圧倒的なスピードになる
バージョン4oは目玉が飛び出るぐらい高性能。
3.5での研究結果じゃないか?
プログラミングに使ってるけど出てきたエラーコードコピペして修正させるのを繰り返せばすぐに使えるのが完成するよね。
プロンプトに問題があるのだろ
いまだに誤回答ガーとか言ってる道具の使い方の分からないアホは放っておけばいい
人間が一発で書いたコードに間違いが含まれる割合は何%あんのよ
何でもできるといまだに勘違いしている人が多いのだな
使い方を知っていれば便利な道具ではあるが
知ってた
複数のAIに同じ質問投げて、一番優秀なのを採用してるわ
結局はネット検索して出てきた内容をまとめてるだけだからな。
出てきた情報が間違っているかどうかを検証もしないで適当に組み立てるんだからそりゃ間違いだらけにもなるわ。
即答したプログラムの48%にバグが含まれないとか、
これ、そこらのプログラマーより遥かに能力高くねーか?
間違ってる前提で進めればいいだけのこと
それでも通常作業以上の効率性がある
書くより読み解く方が難しいからなプログラミングは
とは言え自分でググって宣伝まみれのしょうもないページ見るよりは効率的
生成AIが論理的でないと言ってますが
論理とは人間の都合の納得の話も多いのです
言い変えると納得できる話のつながりを論理といい
それは納得がそれぞれの文化や個人の意図によって違うのですから人によって受け止め方は違うものなのです
プーチンの論理とゼレンスキーの論理は全く違います
いろいろ文句言ってる方々の主張自体がそういう印象ですね
論理ではなく言葉の使われ方の関連度合いを維持してそれで言葉を綴っているわけです
それは論理的な作文なのです
文をコピーしてるわけではなく
言葉の使われ方の法則をベクトル化してそれに基づき作文してるのですから論理的です
論理的でないという方々の論理的でないこそ論理的ではありません
AIはまだまだ発展途上
Windowsがいつまで経っても修正updateしなければ使い物にならないのと同じ
直し作業しているうちに、最初から自分でやった方が早かったとなった。
成長しない新人にやらせて、全部確認した上で手直しするぐらいなら
最初から自分でやった方が楽
chatGPTに回答に間違いあるって言うけど、人間に問い合わせたって大した答え返ってこないから全然問題ないよ。回答確認しないでそのまま使うなんてあり得んし。
これアホの3.5使っての結果だからな
嘘を嘘として見抜ける人じゃないとAI使うのは難しい
javascriptに関してはほとんど間違いないような
アホな俺でもgpt先生の言いなりでTampermonkeyのスクリプトたくさん作ってるよ
それっぽいのを適当にかき集めてくるだけで自分で判断できないからな
3歳児みたいなもんだ
有能な人はGPTを有効利用するための努力する、無能は有効には使えなかった例を一つ見つけて自分が使う努力する必要ないと何もしない自分を正当化してそれで終わり
一生そういう思考、行動様式を繰り返して自らの力で状況変えることがない
間違いというか、こちらの与える条件や仕様が適切ではない、が本当のところじゃないかなぁ
人間だとそういう場合「ここどうしましょう?」と聞いてくるけど、AIは自分の労力に頓着しないので
まずはガーッと作ってしまう。間違うことも普通にあるけど、本当にこちらが正しく指示をしていて
間違う確率は半分なんかよりも大分低い
それはあまりあてにするなよというメッセージだ
そんなこと最初からわかっているよ。今頃、何を言ってるの?
それで研究費を無駄遣いして、自分の給料をがめているのか?
多分しばらくすると文字うつことも時代遅れになると思う
なんかそういう感じがしてきた
打って感情伝えるって窮屈だなって
ハノイの塔が解けないのは解決したんか?
エクセルのマグロとか修正してくれて便利
Excelの色んな処理でVBAをよく作らせるけど、めっちゃ使える。かなり業務効率化できてる
それでもgeminiの遥か上を言っているという
ネットに嘘がなければAIも嘘をつかない
上手く誘導しないとまともな答えが返って来ない
学習してない事でも知らないと言えずデタラメ回答
こんなサービスは日本の企業じゃ絶対リリースできない