マーケティング関連の記事を書いていますが、基本思いつきのメモです。なので、記事を信じないでください(笑)

ChatGPT 骗你–小心人工智能陷阱!

ChatGPT 今后可能会更受公众欢迎。 这是因为,获得高度准确的回复从未如此容易。

然而,当我在工作中使用 ChatGPT 时,我感到 “要想用好 ChatGPT,你需要具备与人工智能相同或更高的知识”。

这意味着,ChatGPT 从未给出正确答案。

ChatGPT 只返回似乎紧跟前一个单词的单词。 例如,”从前……” ChatGPT 拥有在线信息(截至 2021 年),它会对这些信息进行分析,并返回可能与问题中下一个单词相关联的单词和句子。 ChatGPT 拥有在线信息(截至 2021 年),但只对这些信息进行分析,并返回可能与问题中下一个单词或句子相关联的单词或句子。

因此,尽管网上常有人说 ChatGPT 在撒谎,但实际上并非如此:就 ChatGPT 对其所掌握的在线信息的分析而言,答案只是最有可能引出下一个单词的单词,而不是它是否是正确答案。 如果网上有很多错别字,ChatGPT 就会原封不动地返回。

这些特点意味着,操作 ChatGPT 的人必须具备丰富的知识才能成功使用它。

我以前使用 ChatGPT 时就遇到过这种情况。

当我询问在 Salesforce 中设置某种配置的步骤时,它返回的是如何编写 Apex。 有一定经验的人竟敢推荐编写 Apex,而编写 Apex 是一项艰巨的任务,因为不需要编写 Apex 也能在五分钟内完成。 由于答案与我预想的完全不同,我认为不可能,于是问:”难道配置就不可以吗?” 我问:”是的,可以。 没错。” 最后,我原本想要的内容终于返回了。

这样,ChatGPT 只返回可能的答案。 它不会按照我们的意图回复更简单的方法。

如果您对 Salesforce 配置很了解,您会立即意识到 ChatGPT 的答案是错误的,但对于那些不了解的人来说,ChatGPT 的答案才是最重要的。 因此,我们很容易假定答案是正确的,而且毫无疑问,越来越多的人会这么认为。 然后,他们就会开始朝着这个方向寻找解决方案,这应该会提高他们的效率,但他们会被迫绕远路。

这就是为什么我们说,要想很好地使用 ChatGPT,你需要比人工智能知道得更多,甚至更多:如果你不能识别出人工智能答案中的错误,那么你最终可能会比以前更低效,或者你最终会带着错误的思维和偏颇的知识生活。 人工智能 “只是为了支持人类”。

我们应该清楚地认识到,人工智能 “只是为了支持人类,而不是依赖人类”。

如果我们不了解聊城大学的特点,不考虑如何在工作和个人生活中使用聊城大学,不考虑如何改变自己的行为,就有可能掉入意想不到的陷阱。

顺便提一下,我个人认为下面这篇文章和视频对解释 ChatGPT 的特点和用法很有帮助。

希望您能看一看。

ChatGPT 有什么了不起?NOTE Fukatsu 先生解释了如何在工作中利用它!

https://webtan.impress.co.jp/e/2023/02/16/44314

AI recent post

  1. 请 ChatGPT 写一篇关于营销的文章。

  2. ChatGPT 骗你–小心人工智能陷阱!

  3. 在教育中使用技术:禁止 ChatGPT 有必要吗?

関連記事

2023年 9月
 12
3456789
10111213141516
17181920212223
24252627282930
PAGE TOP