Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

🛣️ Roadmap & Feedback | 路线图 & 反馈 #227

Open
successren opened this issue Apr 9, 2024 · 3 comments
Open

🛣️ Roadmap & Feedback | 路线图 & 反馈 #227

successren opened this issue Apr 9, 2024 · 3 comments

Comments

@successren
Copy link
Collaborator

successren commented Apr 9, 2024

🔎 To learn about QAnything's future plans and progress, please see here | 想了解QAnything的未来规划和进展,请看这里:

QAnything Roadmap

🤬To provide feedback to QAnything, please see here | 想要给QAnything提交反馈,请看这里(可以给每个功能需求投票哦):

QAnything Feedbak

Logo
@successren successren pinned this issue Apr 9, 2024
@fivegg
Copy link

fivegg commented Apr 16, 2024

测试了一下,感觉没法用。可能是对pdf表格的识别和处理,没有商业的好吧。但是效果太差呢。我上传了《JTG D20-2017公路路线设计规范》,提问:竖曲线最小半径要求是多少,qanythinG本地答案:根据根据表格根据表格1根据表格11根据表格11.根据表格11.3根据表格11.3.根据表格11.3.4根据表格11.3.4,根据表格11.3.4,臣根据表格11.3.4,臣道根据表格11.3.4,臣道的根据表格11.3.4,臣道的纵根据表格11.3.4,臣道的纵面根据表格11.3.4,臣道的纵面线根据表格11.3.4,臣道的纵面线形

数据来源1:
std_1457556.pdf。
通义千问:1 份文档阅读完成
竖曲线最小半径的要求取决于公路的设计速度。具体数值如下:

对于凸形竖曲线(上升坡段):

当设计速度为 80 km/h时,一般值为 4500 m,极限值为 3000 m。
当设计速度为 70 km/h时,一般值为 3500 m,极限值为 2000 m。
当设计速度为 60 km/h时,一般值为 2000 m,极限值为 1400 m。
以此类推,随着设计速度的降低,最小半径的一般值和极限值相应递减。
对于凹形竖曲线(下降坡段):

设计速度为 80 km/h时,一般值为 3000 m,极限值为 2000 m。
设计速度为 70 km/h时,一般值为 2000 m,极限值为 1500 m。
设计速度为 60 km/h时,一般值为 1500 m,极限值为 1000 m。
同样,随着设计速度的下降,凹形竖曲线的最小半径一般值和极限值也逐渐减小。
在实际设计中,应优先选用竖曲线最小半径的一般值,以保证行车的舒适性和安全性。只有在地形条件极为特殊和困难,其他设计选项无法满足的情况下,才可考虑采用极限值。此外,竖曲线最小长度也有明确规定,一般情况下其长度应至少为 75至 100米,最短不得低于 25至 50米,具体数值同样与设计速度相关。这些要求旨在确保公路纵断面线形平顺,减少车辆行驶过程中的颠簸和视觉不适,保障公路的安全运营。

@xixihahaliu
Copy link
Collaborator

@fivegg 这个看起来是模型能力问题,请问您用的是什么版本的代码?目前mac上只适配了3B的开源LLM模型MiniChat-2-3B,能力有限,如果想体验更好的效果可以使用openai-api,或在Linux/Windows WSL上使用自研7B模型,效果会好很多

@guozanhua
Copy link

@fivegg 这个看起来是模型能力问题,请问您用的是什么版本的代码?目前mac上只适配了3B的开源LLM模型MiniChat-2-3B,能力有限,如果想体验更好的效果可以使用openai-api,或在Linux/Windows WSL上使用自研7B模型,效果会好很多

WSL上的版本可以使用问答集的功能吗?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants