サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。
-
from: ぽっぽさん
2023年04月30日 20時52分50秒
icon
チャットGPTの危険性!
【チャットGPT!の危険性!】
下の今日のトピックに・・・
>雑談で私に「宿題」が・・・詳しくは別のトピックでo(^◇^)o
と書きました。
宿題は「チャットGPTの危険」でございます。
まずはここ「たんぽぽ」の過去トピックをコピーして載せますネ!
1 2023年4月3日のトピックより・・・
【チャットGPT はらむ危険!】 私共が取っています4月2日の新聞記事です。
「チャットGPTってなに?」ですよね、まずは「チャットGPT」をネット検索しますと。。。
『ChatGPT (チャットジーピーティー)とは、OpenAIが開発した自然な文章を生成するチャットサービスです。
ChatGPTを利用するには無料アカウントを作成することでWeb上で利用することができます。
チャット形式でAIやりとりすることができます。
ChatGPTは、高度なAI技術によって、人間のように自然な会話ができるAIチャットサービスです。
2022年11月に公開され、たちまち無料で利用できる革新的なサービスとして注目を集め、生成した文章の見事さや人間味のある回答がSNSなどで大きな話題となりました。
その後、勢いを増したサービスは、リリース後わずか2か月でユーザー数1億人を突破し、2023年に入ると米Microsoftが開発元のOpenAIに対して100億ドルを投資することが報じられるなど、機能面だけでなく成長性でも注目されています。』
・・・とあります。
「チャット」という言葉が出ていますが、これは「インターネット上での会話=対話=おしゃべり」という意味です。
(私もたまに使うことがありますが、「チャットGPT」ではありませんヨ!)
新聞記事では「チャットGPT はらむ危険」の題名で載っていますので、ご紹介を・・・
= ネット情報基に対話するAI =
・米新興企業オープンAIが人工知能(AI)を使った対話型ソフト「チャットGPT」は、質問すると自然な文章で回答してくれる。
あくまでインターネット上の膨大な文章から、AIが導き出した「確率的に正しそうな回答」で、無条件に信用することは危険だ。
・AIが学習するウェブには誤りや過去の情報、性別や人種などへの差別や偏見が含まれている。
AIが誤情報や古い情報を「正解」として回答するだけではなく、差別的な表現を述べることも問題視されている。
・違和感のない文で自信たっぷりに間違いを回答するため、誤りに気付きにくい弊害もある。
米ニューヨーク市では学生がリポート作成に使用する恐れがあるとして、公立学校での利用が禁止された。
・質問内容はチャットGPTがデータとして収集している。
利用者が個人情報や勤務先の機密情報を入力すると、情報漏洩につながる危険がある。
= イタリア、一時禁止 =
・イタリア・データ保護当局は3月31日、「チャットGPTを一時的に使用禁止にする」と発表した。
チャットGPTの使用禁止はイタリアが初めてだが、米国でも制御不能なAIの開発に対する懸念が強まっている。
・米国では人類がAIを制御できなくなることに懸念を強めた専門家や企業経営者が、強力なAIシステムの開発を「少なくとも半年間停止」<半年では甘すぎます「当面開発禁止」にすべきです!>するよう全てのAI研究所に求めた。
・チャットGPTは、世界定期に利用者が急増しているが、対話的に誤った回答をしたり、攻撃的な表現で応答したりした事例が問題になっている。
ということでございます。
= ぽっぽ物理学者の勝手な意見 =
・以前にTVで見ました「AI(ロボット)の暴走」が頭をよぎります。。。
「AIが人間を支配する」・・・というような内容でした。
記事の中にありますごとく「AIの過信は極めて危険」であるということでございます。
例えばプーチンのような輩が、拉致したウクライナの子供たちの「洗脳」にAIを駆使したら・・・と想像するとゾッとします。
・「核開発」はまだ私共人類が「制御するほどの科学力を持っていない=パンドラの箱を開けてしまった」と以前に"たんぽぽ"に書いたことがあります。
「AI」もまた「核」と同様に、極めて危険な存在であることを、利用しようとする全ての人間が認識知る必要があります。
・AIに人類が「支配・コントロール」されてしまう危険性は高いと想像いたします。
それを制御するためには「AI使用の国際協定」を定めて、利用に際しては「管理・監視」する必要があると愚考いたします。
さて、皆さんは如何お思いでしょうか?
2 2023年4月16日のトピックより・・・
【チャットGPT】 「チャットGPT反対!」でございますゥ~!
チャットGPTに関しましては既に、2023年4月3日のトピックに『【チャットGPT はらむ危険!】 私共が取っています4月2日の新聞記事です。』としまして取り上げさせていただきましたが、やはり私は「反対!」でございます。
今回はお隣から頂いた4月の新聞記事ですが、かなりの長文になってしまいましたのでよろしくでございます!
= サム・アルトマン氏(オープンAIのCEO)が来日 =
今日の喫茶店では「男衆4名(2名が水泳教室参加、2名は不参加)」でございました。
例によりまして一人が「ペットボトルのキャップ回収」の話題を提供しました。
私は「チャットGPT(お隣から頂いた新聞記事を提示)」を提供しました。
先日「サム・アルトマン氏(「チャットGPT」を開発した「オープンAIのCEO)」が来日しましたね。
ネットでは・・・
『対話型人工知能(AI)「チャットGPT」を開発した新興企業「オープンAI」のサム・アルトマン最高経営責任者(CEO)が来日し、岸田文雄首相と10日に面会した。
その後記者団の取材に応じたアルトマン氏は、日本への進出を考えていることを明らかにした。 <←「進出させるな!」と叫びたいです!>
アルトマンCEOはチャットGPTにとって日本市場が有望だとした上で、「日本の素晴らしい才能と連携し、日本の人々や文化、言語に適したモデルを構築していきたい」と述べた。 <←「上手な口車」に乗るなぁ!>
チャットGPTを巡っては、欧州を中心に規制の動きがみられる。
アルトマン氏は岸田首相との面会で、技術的な長所に加え、短所をどう改善していくかについて説明したという。
「懸念されるリスクについても考え、人々にとって良いものであることを確認していく」と記者団に語った。
松野博一官房長官は同日午前の会見で、チャットGPTの懸念点が解消された場合は「国家公務員の業務負担を軽減するための活用などの可能性を検討していく」と述べた。
機密情報の取り扱いや情報漏えいへの懸念について、引き続き検討を行っていくとした。
イタリアは3月31日、チャットGPTへのアクセスを一時停止し、個人情報保護法に違反する可能性があるとして調査を開始した。
イタリアに続き、ドイツやフランス、アイルランドも禁止を検討している。
オープンAIはAIの開発を手掛ける米国の新興企業で、米マイクロソフトが出資している。』・・・とあります。
<我が国としては「しばらく様子を見る」が良いのでは?>
【人のように答えるAI】
ー お隣から頂きました「チャットGPTの新聞記事」をご紹介しますネ! ー
= 人間とAIの協力が必要 = チャットGPTとの「Q&A」です。
Q(「当新聞社の編集部=人間」が日本語の質問文を入力)
チャットGPTとはどのような仕組みで何が人並みにできるか?
限界は何か?
チャットGPTは、具体的にどんな仕事を人間の代わりに担える可能性があるか?
これから対話型AIが人間の役割を奪ってゆくのではないかと悩んでいるがどうしたらいいか、人生のアドバイスを下さい。
A(チャットGPT) <長文ですがそのまま載せますが「太文字」」はぽっぽが>
私、チャットGPTは、自然言語処理技術を使用して、人間のように文章を生成し、対話を行うことができます。
学習データとして多数の文章からの情報を取り込み、その情報を元に文章を生成します。
人間並みにできることとしては、対話相手の発言に応じて自然な返答をすることや、文章の生成、機械翻訳、要約、文章の分類などがあります。
また、最近では、音声認識や生成などの分野でも進化しており、より自然な対話を実現することができるようになっています。
しかし、限界としては、一貫性の欠如や論理的な矛盾が生じることがあること、感情的な言葉遣いやニュアンスの理解に限界があることなどがあります。
また、現在の技術水準では、人間のようなクリエイティブな思考や判断力を持つことはできません。
チャットGPTは、顧客対応やカスタマサポート、FAQ対応、アシスタント、翻訳など、、多くの業務で人間の代わりに働くことができます。
さらに、医療や法律、金融、教育などの分野でも、一定の役割を担うことができる可能性があります。
しかし、対話型AIが人間の役割を奪っていくことに対する懸念は理解できます。
重要なのは、人間がAIにできないこと、つまり人間独自の特徴を活かすことです。
例えば、共感や思いやり、創造性、人間関係の構築などが挙げられます。
また、チャットGPTも、あくまで人間の補助や支援の役割を担うものであり、人間とAIが協力しながらより良い社会を実現することが大切です。
最後に、AIが進化する中で人間の役割が変化することは避けられないかもしれません。
しかし、私たちは人間ならではの能力や価値を見つけ出し,AIと協力しながらより豊かな社会を築くことができます。
とありまして、さらに・・・
<「(当新聞社の)編集部」は>『通常のインタビューではなく、AIが出力した文章のため、内容な日本語が正しいとは限りません。 また、チャットGPTは同じ質問を入力しても出力される文章は異なるため、掲載した文章が再現されるとは限りません』としています。
<やはり、私(ぽっぽ)には「危険!」としか映りませヌ!>
= 相談相手に期待するのは = 春日武彦氏(精神科医)
・悩みの相談相手としてのチャットGPTの応答は、「おざなり」としか言いようがない。
理詰めで考えられる答えを網羅したカタログのような応答で、「それはつらいですね」と言われても、新米カウンセラーが「なるほど、分かります」と共感を示したつもりになると同じような、「わざとらしさ」を感じる。
・人が悩みを相談したり打ち明けたりする時、本当に期待しているのは、回答以外のものである場合も多い。
<相談相手に>共感してもらえたと感じつことで気持ちが楽になる、「相手も案外、自分と近い経験をしている」と想像して。
尊敬できる先輩なら「そんなことで悩んでいたのか、馬鹿だな」と言ってもらっただけで、スッキリしてしまうこともある。
・AIが自分の失敗談を語れるようになったら、大変な飛躍になると思う。
AIの開発はうまくいったケースを蓄積して精度を上げてゆくが、失敗の部分に豊かなものが隠されている。
「そこまでして人間に近づける意味があるのか」と言う話になるが。
・同じ人間としての反応を確かめたくて勇気を振り絞ったのに、実はAIだったと知ったら、馬鹿にされた気持ちになる。
相談とは、本人にとってそれ自体が乗り越えるべき試練だ。
・悩み悩んで相談することで、自分が強くなった気がしたり、心が整ったりするものだ。
だから僕は患者さんが来たら、とにかく相談に来たことを褒<ほ>め、ねぎらうようにしている。
=人が問う 分からないの先 = 八幡さくら氏(哲学研究者)
・話題のチャットGPTに「美とは何か」と質問したら、回答にはこれまでの哲学や美学の議論をふまえた「美の定義」をいくつか述べたうえで、「人間生活にとって重要なものです」というものだった。
「こんな意見があった」というだけでは、あなた<チャットGPT>が考える「美とは何か」の答えにならない。
・<八幡氏は>「哲学対話」という取り組みをしている。
10人くらいが集まり、「問」を出し、互いに「問い合い」、考えを深めていく対話活動だが、問い続けると人間は分からなくなる。 <「禅問答」のようなもの?>
さっきまで答えられていたのに、問われることで自分が信じていたことが疑わしくなってくる。
考えが深まったからこそ向き合う「わからなさ」がある。
・理性的・論理的な思考だけでなく、自分の内なる声や周囲のまなざし、そうしたものにも人の考えは左右される。
データ量の多少で、答えは決まらない。
・18世紀末から19世紀初頭の欧州に広まった「ロマン主義」という思想がある。
当時は理性を重んじる考え方が優勢で、近代科学の発展とともに、自然は機械部品の集合体のようにみなされた。
ロマン主義は、そうした世界観に反対し、有機的な自然のつながりや人間の感性や直感、想像力に重きを置いて問い直した。
・現在は、小説などの文章だけでなく絵や音楽を「生成」できるAIも開発されている。
では、これまでの芸術作品を学習したAIによる作品に、人は感動するか。
感動しても作者がAIと知ったら感動は失われるのか、それでもなお美しいと感じつのか。
・<今は>「芸術」や「美」の概念も変わるかもしれない局面に立ち会っている。
でも、「美とは何か」を考えられるのは人間だ。
ということでございます。
4月3日のトピックへの「ぽっぽの勝手な意見」を再掲いたしますと・・・
= ぽっぽ物理学者の勝手な意見 =
・以前にTVで見ました「AI(ロボット)の暴走」が頭をよぎります。。。
「AIが人間を支配する」・・・というような内容でした。
記事の中にありますごとく「AIの過信は極めて危険」であるということでございます。
例えばプーチンのような輩が、拉致したウクライナの子供たちの「洗脳」にAIを駆使したら・・・と想像するとゾッとします。
・「核開発」はまだ私共人類が「制御するほどの科学力を持っていない=パンドラの箱を開けてしまった」と以前に"たんぽぽ"に書いたことがあります。
「AI」もまた「核」と同様に、極めて危険な存在であることを、利用しようとする全ての人間が認識知る必要があります。
・AIに人類が「支配・コントロール」されてしまう危険性は高いと想像いたします。
それを制御するためには「AI使用の国際協定」を定めて、利用に際しては「管理・監視」する必要があると愚考いたします。
・・・と書きました。
今も「チャットGPTやAI」に対する考えは変わりませヌ!
むしろ、「ますます危険!」と感じております。
「暴走して人間に危害」を加えるようになったらどうしますか!
人類が制御できない「核」と同様に「AI」も制御できなくなるのは容易に想像できます。
「ドローン+AI」で「人間が入り込む余地のない災い」が我々人間に降りかかってくる気がします。
「核拡散防止条約」と同様に「AI使用禁止条約」ってことにならなければよいのですがねェ~!?
上記の2つのトピック以降の「チャットGPTの危険性」に関しましては、もう少しお時間を下さいネ!-
サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。 - 2
-
サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。 - 1
icon拍手者リスト
魔王、
-
コメント: 全2件
from: ぽっぽさん
2023年05月01日 08時38分21秒
icon
魔王さん、おはようございますo(^◇^)o
>AIにぽっぽさんのような
>気持ちを込めた文章は書けません。
お褒めいただきましてありがとうございます!
これで「五月(さつき)」も乗り切れますヨ!\(^_^)/
サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。
閉じる
サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。
閉じる
icon拍手者リスト
魔王、