08|文本改写和内容审核,别让你的机器人说错话
该思维导图由 AI 生成,仅供参考
文本改写,从使用提示语开始
- 深入了解
- 翻译
- 解释
- 总结
OpenAI的GPT系列模型在文本处理和内容审核方面具有丰富的功能和应用场景。本文介绍了使用ChatGPT模型接口进行文本改写的方法,以及通过调整参数和使用logit_bias参数来精确控制生成文本的内容。此外,还介绍了OpenAI提供的各种模型,包括GPT-4家族、GPT-3.5家族、Ada、Babbage、Curie和Davinci等模型,以及它们的特点和适用场景。文章还提到了一些模型的特殊功能,如text-davinci-003模型支持“插入文本”功能,可以用于文本改写。另外,还介绍了OpenAI提供的moderate接口,用于对输入以及返回的内容进行检查,以过滤不合适的内容。通过本文的总结,读者可以了解到OpenAI的GPT系列模型在文本处理和内容审核方面的丰富功能和应用场景,以及如何根据具体需求选择合适的模型和参数进行文本改写和内容审核。这些信息对于希望利用AI大语言模型进行文本处理和内容审核的读者来说,将是一份有益的技术指南。
《AI 大模型之美》,新⼈⾸单¥68
全部留言(17)
- 最新
- 精选
- 阿斌斯基gpt4.0 api加入waitlist好久了 没下文。有没有什么其他途径可以获取权限?
作者回复: 如果是公司的话,可以找 Azure 云的合作伙伴渠道。
2023-04-01归属地:广东4 - Z12老师在这里通过 logit_bias 参数精确控制内容,我有一点不明白,这句话encoding = tiktoken.get_encoding('p50k_base'),你取的是p50k_base然后取获取灾害对应的token,这里好像有一个假设即tiktoken库中的p50k_base编码与OpenAI的GPT-3.5-turbo模型使用的编码相同,但是我并没有从资料中查出OpenAI的GPT-3.5-turbo使用的是'p50k_base'编码,但是你的输出结果中又确实过滤掉了灾害,这是巧合,还是?
作者回复: 我最早是在这里 https://github.com/openai/openai-python/issues/304 判断应该通过 p50k_base 但是看了一下最新的文档,似乎应该用 cl100k_base https://github.com/openai/openai-cookbook/blob/main/examples/How_to_count_tokens_with_tiktoken.ipynb 晚点我实验一下看是否需要修正。
2023-04-25归属地:广东2 - 烧瓶小人付费账号也被封了,有没有能自己能通过公布的模型搭建一个服务器的可能,不然课程完全是空中楼阁了
作者回复: 多搜索一下,有不少人贴了各种自己的解决方案 可以通过修改 openai.api_base 来用第三方搭建的代理访问入口 不过的确现在的访问限制是个门槛
2023-04-05归属地:浙江21 - Geek_b7449f历时两个星期过了第一遍基础知识篇,收获很多很多,遇到问题能不问就不问,实在不行就问 gpt,自己一步一个坑,能踩得都踩了,因为额度被自己玩完了,甚至还办了一张万事通的信用卡,跟着老师多学点,进步收获真的会很多,下一个星期继续夯实下基础知识后,再去看下一部分,很感谢老师~
作者回复: 👍 一起加油
2023-05-16归属地:日本 - 不焦躁的程序员这一节的代码的github地址,麻烦老师发一下,谢谢
作者回复: 所有的代码都在 https://github.com/xuwenhao/geektime-ai-course
2023-04-06归属地:江苏 - Bonnenult丶凉煜注册的账号没有免费额度,连最后免费的接口也不能调用qaq RateLimitError: You exceeded your current quota, please check your plan and billing details.
作者回复: 最近好像OpenAI又封禁了一批账户,可以找周围的朋友看看是否有可以用的付费账户。
2023-03-31归属地:中国台湾2 - Oli张帆老师,最后讲的那个免费模型,真的是太好了,解决了一个大的问题2023-03-31归属地:新加坡31
- 石云升presence_penalty 和 frequency_penalty 是 OpenAI GPT-3 API 中的两个参数,它们对模型生成的文本有影响。 presence_penalty:这个参数决定了模型在生成新的文本时,对于新颖或不常见的词语的偏好程度。如果将其设置得更高,模型就更倾向于使用它不常见的词语。例如,如果你设置了较高的presence_penalty,模型可能会选择“他赞扬了我,就像一只鸟儿在春天的清晨歌唱”,而不是简单的“他赞扬了我”。 frequency_penalty:这个参数控制了模型对于频繁出现的词语的偏好程度。如果将其设置得更高,模型就更倾向于避免使用频繁出现的词语。例如,如果你设置了较高的frequency_penalty,模型可能会选择“他赞扬了我,就像一只鸟儿在春天的清晨歌唱”,而不是重复的“他赞扬了我,他赞扬了我”。 这两个参数的范围都是0.0到1.0。默认情况下,这两个参数的值都是0.0,意味着模型不会对新颖或频繁的词语有任何偏好。 注意,这两个参数的设置并不保证模型一定会按照你期望的方式生成文本,但可以在一定程度上影响模型的输出。2023-05-25归属地:广东1
- 茂松COMPLETION_MODEL = "gtp-3.5-turbo" def generate_data_by_prompt(prompt): response = openai.chat.completions.create( model = COMPLETION_MODEL, messages = [{"role":"user", "content":prompt}], temperature=0.5, max_tokens=2048, top_p=1, ) return response.choices[0].message.content2024-03-18归属地:广东
- 茂松openai.chat.completions.create()2024-03-16归属地:广东