ChatGPTを業務に取り入れたシステム開発会社が記者会見し、導入の効果と課題を明らかにしました。業務の時間が大幅に短縮できた一方で、回答が正確かどうかがわからない場合もあり、会社は機能の改良などを進めるとしています。
大手電機メーカー傘下のシステム開発会社では、ChatGPTを活用したAIを開発し、ことし2月から国内およそ1万3000人の社員に導入しています。
会社は28日都内で会見し、導入から3か月間に、資料の作成やプログラミングなどの業務でAIの利用が26万件にのぼったことを明らかにしました。
この中では、これまで9時間かかっていたアンケートを分析する作業が、6分に短縮されるなど生産性の大幅な向上につながる事例があったとしています。
一方で、出てきた回答が正確かどうかわからないことや、自社固有の専門用語が使われた質問に回答できないなどの課題も明らかになったということで、会社は今後、機能の改良などを進めるとしています。
パナソニック コネクトの向野孔己シニアマネージャーは「社員の利用データからみて有効だと判断している。業務をサポートするAIの活用が進化すれば生産性が上がると思う」と述べました。
生成AIをめぐっては、多くの企業や自治体などが業務に取り入れていますが、正確性のほか著作権の問題などリスクも指摘されていてどのように活用していくかが課題となっています。
2023年6月28日 19時38分
https://www3.nhk.or.jp/news/html/20230628/k10014112001000.html
判断できる知識のある人の作業効率が上がるということ
作業員は要らなくなる
利用するのはいいと思うけど自分でその作業をできる人間が扱わないととんでもないアウトプットができあがるぞ
答えが正しいかチェックする必要あるし
AIは何を担当してるんだ
多分VBAなりPythonなりのプログラムコードの生成とかだと思う
大抵そこから少し修正しないといけないけどちゃんとしたコード出てくる
わざわざコード生成する意味わからん
AIを使うなら可視化されたデータからレポートを作成するとかならありかも
データの上っ面だけ見て、
なんとなく答えを返す事だけ
してるんじゃないかな。
今のところ、勝手にデータマイニング的な事は
期待できない。
プログラムにも使えないと思うけどな
メーカー傘下のシステム開発会社だったら上から押しつけられたメーカー独自ルールがあるだろうし
空気読んで周りに合わせたコードを書くことってAIには難易度高い
間違いは人間の場合にもある
ただ問題は間違っていた場合の責任がどこにあるかだな
AIの使用者なら結局その結果になった経緯まで含めて全て遡って把握し、間違いが無いのかを検証する作業が必要になる
>>26
答えを教えて理解できるやつは次以降は仕事を頼めるようになる
年内にはその段階に入っての競争が始まると思う
お前のことだぞgoogle
色々と賛否両論はあるけど時代だと思うわ
CDRのときとかのほうがそれだったら問題だったろうけど
全然問題なかったわな当時は
それは進化を否定しなかったからだと思う
その判定が課題って、自分達の技術力が課題って言ってるようなもんだろ
AIでもできる簡単な仕事で飯食える時代は終わりだよ
入力文だって重要な内容をインプットできないし
業務はまだしも日常に具体的にどういう場面で約に立つの?
恋愛相談でもするのか?
アメリカでは、法務文書を書かせた弁護士がいたようだ
架空の判例だらけで、その弁護士は「二度とAIを使わない」という反省文を提出した
プログラミング周りは既にかなり優秀
少し動かせば正解と間違いの判断もすぐ付くし、IT業界が採用するのは理に適ってる
他の業界は学習させることを前提にヘルプチャットとかに導入するのは現時点でありかもしれない
企業サイトのQA系のページは近い将来全滅すると思う
迂闊に使ってGPL汚染で死ぬケースとかありそう
勘違いしがちだけど意味を理解してるわけでも根拠や理論から結果を出してるわけではないのよね
いや根拠の参照がおかしいときがあるだけで根拠に基づいてるよ
なんなら倫理観こそが知識向上の早道だと解を出している分DQNよりはるかに優れているまである
bardだと多少検索もできるだろうけど
最新情報はトレーニングしなきゃいけないからそれに基づくソースが必要になる可能性がある
あと歴史とか専門的な知識
こういうのは個々にそれぞれがやってユーザーにトレーニングファイルをアップロードさせたほうがいい
事実、中国とかの下請けに出したの修正する仕事よく募集してる
チャットGPTは学習データが広範すぎるんよ
目的に応じた学習セットを用意しなきゃ当然正解率は下がる
管理人からひと言
猿は道具を使えるかもしれないが、文字を使うことはできない。のと一緒だと思ってる。
この記事へのコメントはありません。