Redian新闻
>
如何用python web.py web service 做 multiple parameters 的 call?
avatar
如何用python web.py web service 做 multiple parameters 的 call?# Programming - 葵花宝典
w*g
1
开春的时候还没有BART猫, 我种了一小盆猫草准备引诱邻居的猫, 后来它们不领情我一
生气就把草给移到后院不管了, 最近这个东西自生自灭的还NB了起来, 居然长了很多籽
! FT!
这几天我天天抱巴特猫出去呼吸新鲜空气, 有一次无聊的紧, 就把巴特猫送到草前边看
看他什么态度, 原来也没有指望什么, 因为我知道他对猫薄和一点没反应(是个守法的
好青年, 不吸毒). 结果巴特很兴奋啊, 啊呜啊呜的就咬草叶, 后来一口咬了个草籽就
吃下去了. 一开始我很担心, 怕他拉肚子(他小时候吃TREAT不消化, 没少让我操心, 现
在还没有开罐头的禁令, 吃TREAT也是一天顶多一块). 观察了两天, 发现他精神头还有
便便一切正常. 于是最近三天, 我让他一天吃一颗草籽, 他还很开心.
但是NND时不我待啊, 眼看猫草渐渐发黄,草籽也要爆满发硬了, 这样肯定就没有鲜美的
味道了. 我这个心急! 今天我去超市买东西, 看到冷冻柜里的青豆,突然受到启发. 塞,
这个屁挨着地这没有白拿. 马上就举一反三了! (自我陶醉ING...). 回家后, 我把所
有的草籽收了, 密封进ZIPLOC袋子了, 然后扔
avatar
T*c
2
亵渎还会有现在的地位么?
avatar
t*q
3
大家好。我的那个web service 做成了。用了python 的 web.py.
install web.py
cd webpy
编辑python web service.
#!/usr/bin/env python
import web
import csv
import difflib
import re
import operator
import Levenshtein
urls = ('/title_matching2','title_matching2')
app = web.application(urls,globals())
class title_matching2:
def __init__(self):
self.hello = "hello world"
def GET(self):
getInput = web.input(name="World")
b=[]
with open("Book1.txt","rb") as k:
for row in k:
b.append(row.split("t"))
k.close()
c=[]
with open("series_name.txt","rb") as j:
for row in j:
c.append(row.split("t"))
j.close()
d=[]
with open("season_name.txt","rb") as s:
for row in s:
d.append(row.split("t"))
s.close()
dd={}
ee={}
cc={}
gg={}
title=str(getInput.name)
title1=re.sub(r',',' ',title)
title1=title1.lower()
title1=re.sub(r'series',' ',title1)
title1=re.sub(r'episode',' ',title1)
title1=re.sub(r'season',' ',title1)
title1=re.sub(r'"',' ',title1)
title1=re.sub(r'-',' ',title1)
title1=re.sub(r':',' ',title1)
title1=re.sub(r' ','',title1)
for j in range(len(b)):
s2=re.sub(r',',' ',b[j][3])
s2=s2.lower()
s2=re.sub(r'series',' ',s2)
s2=re.sub(r'episode',' ',s2)
s2=re.sub(r'season',' ',s2)
s2=re.sub(r'"',' ',s2)
s2=re.sub(r'-',' ',s2)
s2=re.sub(r':',' ',s2)
s2=re.sub(r' ','',s2)
b[j].append(s2)
s3=re.sub(r',',' ',b[j][3]).lower()
b[j].append(s3)
for t in range(len(c)):
s2=re.sub(r',',' ',c[t][0])
s2=s2.lower()
s2=re.sub(r'series',' ',s2)
s2=re.sub(r'episode',' ',s2)
s2=re.sub(r'season',' ',s2)
s2=re.sub(r'"',' ',s2)
s2=re.sub(r'-',' ',s2)
s2=re.sub(r':',' ',s2)
s2=re.sub(r' ','',s2)
c[t].append(s2)
for q in range(len(d)):
s2=re.sub(r',',' ',d[q][0])
s2=s2.lower()
s2=re.sub(r'series',' ',s2)
s2=re.sub(r'episode',' ',s2)
s2=re.sub(r'season',' ',s2)
s2=re.sub(r'"',' ',s2)
s2=re.sub(r'-',' ',s2)
s2=re.sub(r':',' ',s2)
s2=re.sub(r' ','',s2)
d[q].append(s2)
ff={}
for j in range(len(b)):
d1=float(Levenshtein.ratio(title1,b[j][len(b[j])-2]))
ff[str(b[j][2])+"t"+str(b[j][3]).strip()+"t"+b[j][len(b[j])-1].
strip()]=d1
qq=title1
dd[qq]=str(max(ff.iteritems(),key=operator.itemgetter(1))[0])
my_list=qq+"t"+dd[qq]
# max_value=float(max(max_value,d))
return gg
if __name__ == "__main__":
app.run()

kk=my_list.split("t")
matchObj=re.match(r'(.+)-(.+)-(.+)',kk[3].strip())
if matchObj:
ee={}
cc={}
for e in range(len(c)):
d2=float(Levenshtein.ratio(str(matchObj.group(1)),c[e][len(c[e]
)-1]))
ee[str(c[e][0]+"t"+c[e][1].strip())]=d2
for r in range(len(d)):
d3=float(Levenshtein.ratio(str(matchObj.group(1)+matchObj.group
(2)),d[r][len(d[r])-1]))
cc[str(d[r][0]+"t"+d[r][1].strip())]=d3
uu=str(max(ff.iteritems(),key=operator.itemgetter(1))[0]).split("t
")
gg['matched title']=uu[1]
gg['matched title WPR_ID']=uu[0]
gg['matched title confidence level']=max(ff.iteritems(),key=
operator.itemgetter(1))[1]
return gg
if __name__ == "__main__":
app.run()
然后 run 这个 web service , ./some.py, 再call:
links http://localhost:8080/title_matching2?title=diehard
会返回一个hash table. 正是我想要的。
但是如果run multiple parameters 的话:
代码如下:
#!/usr/bin/env python
import web
import csv
import difflib
import re
import operator
import Levenshtein
urls = ('/title_matching4','title_matching4')
app = web.application(urls,globals())
class title_matching4:
def __init__(self):
self.hello = "hello world"
def GET(self):
getInput = web.input(title="World",prod="type")
b=[]
with open("Book3.txt","rb") as k:
for row in k:
b.append(row.split("t"))
k.close()
dd={}
ee={}
cc={}
qq={}
title1=str(getInput.title)
prod1=str(getInput.prod)
title1=re.sub(r',',' ',title1)
title1=title1.lower()
title1=re.sub(r'series',' ',title1)
title1=re.sub(r'episode',' ',title1)
title1=re.sub(r'season',' ',title1)
title1=re.sub(r'"',' ',title1)
title1=re.sub(r'-',' ',title1)
title1=re.sub(r':',' ',title1)
title1=re.sub(r' ','',title1)
prod1=prod1.lower()
s4=title1+prod1
for j in range(len(b)):
s2=re.sub(r',',' ',str(b[j][1]))
s2=s2.lower()
s2=re.sub(r'series',' ',s2)
s2=re.sub(r'episode',' ',s2)
s2=re.sub(r'season',' ',s2)
s2=re.sub(r'"',' ',s2)
s2=re.sub(r'-',' ',s2)
s2=re.sub(r':',' ',s2)
s2=re.sub(r' ','',s2)
s3=str(b[j][3].strip())
s3=s3.lower()
s5=s2+s3
b[j].append(s5)
ff={}
for j in range(len(b)):
d1=float(Levenshtein.ratio(s4,b[j][len(b[j])-1]))
ff[str(b[j][1]).strip()+"t"+str(b[j][2]).strip()+"t"+str(b[j][3
]).strip()]=d1
qqq=title1
dd[qqq]=str(max(ff.iteritems(),key=operator.itemgetter(1))[0])+"t"+
str(max(ff.iteritems(),key=operator.itemgetter(1))[1])
my_list=dd[qqq]+"t"+qqq
# max_value=float(max(max_value,d))
my_list1=my_list.split("t")
qq['matched title']=my_list1[0]
qq['matched WPR_id']=my_list1[1]
qq['matched title confidence level']=my_list1[3]
return qq
if __name__ == "__main__":
app.run()
然后再run ./rest9.py
再打开一个link:
links http://localhost:8080/title_matching4?title=diehard&prod=feature
就没有hash table 返回。虽然我想返回hash table.
只是出现如下东西在screen 上:
[email protected]:~$ links http://localhost:8080/title_matching4?title=diehard&prod=feature
[1] 1190
请问这是为什么?
为什么不能打开一个连接,并有hash table 返回?
多谢!
avatar
w*g
4
WK, 没天理了, 五年来我发的最长贴啊, 居然没人顶? 我容易么我.
sign, 我的FAN BASE估计是没有了.

开春的时候还没有BART猫, 我种了一小盆猫草准备引诱邻居的猫, 后来它们不领情我一
生气就把草给移到后院不管了, 最近这个东西自生自灭的还NB了起来, 居然长了很多籽
! FT!
这几天我天天抱巴特猫出去呼吸新鲜空气, 有一次无聊的紧, 就把巴特猫送到草前边看
看他什么态度, 原来也没有指望什么, 因为我知道他对猫薄和一点没反应(是个守法的
好青年, 不吸毒). 结果巴特很兴奋啊, 啊呜啊呜的就咬草叶, 后来一口咬了个草籽就
吃下去了. 一开始我很担心, 怕他拉肚子(他小时候吃TREAT不消化, 没少让我操心, 现
在还没有开罐头的禁令, 吃TREAT也是一天顶多一块). 观察了两天, 发现他精神头还有
便便一切正常. 于是最近三天, 我让他一天吃一颗草籽, 他还很开心.
但是NND时不我待啊, 眼看猫草渐渐发黄,草籽也要爆满发硬了, 这样肯定就没有鲜美的
味道了. 我这个心急! 今天我去超市买东西, 看到冷冻柜里的青豆,突然受到启发. 塞,
这个屁挨着地这没有白

【在 w*****g 的大作中提到】
: 开春的时候还没有BART猫, 我种了一小盆猫草准备引诱邻居的猫, 后来它们不领情我一
: 生气就把草给移到后院不管了, 最近这个东西自生自灭的还NB了起来, 居然长了很多籽
: ! FT!
: 这几天我天天抱巴特猫出去呼吸新鲜空气, 有一次无聊的紧, 就把巴特猫送到草前边看
: 看他什么态度, 原来也没有指望什么, 因为我知道他对猫薄和一点没反应(是个守法的
: 好青年, 不吸毒). 结果巴特很兴奋啊, 啊呜啊呜的就咬草叶, 后来一口咬了个草籽就
: 吃下去了. 一开始我很担心, 怕他拉肚子(他小时候吃TREAT不消化, 没少让我操心, 现
: 在还没有开罐头的禁令, 吃TREAT也是一天顶多一块). 观察了两天, 发现他精神头还有
: 便便一切正常. 于是最近三天, 我让他一天吃一颗草籽, 他还很开心.
: 但是NND时不我待啊, 眼看猫草渐渐发黄,草籽也要爆满发硬了, 这样肯定就没有鲜美的

avatar
a*o
5
魔装和姐姐是嘛玩意儿?没听说过。
avatar
t*q
6
顶!

【在 t***q 的大作中提到】
: 大家好。我的那个web service 做成了。用了python 的 web.py.
: install web.py
: cd webpy
: 编辑python web service.
: #!/usr/bin/env python
: import web
: import csv
: import difflib
: import re
: import operator

avatar
s*n
7
肯定有。魔装都没听过。
姐姐那个阅读的紧凑感差太多了。一放下就不想再看了。
avatar
t*q
8
大家好。
我后来又找到一个可以做query的package 叫flask.也是在python 里。
用它写了一个multiple parameters 的query,差不过如下:
http://stackoverflow.com/questions/15182696/multiple-parameters
还是用links 打开一个网页
links http://127.0.0.1:5000/api?name=XXX&prod=XXX
没有回应。只是出现一个随机数,在screen上。
但是用curl就能返回想要的东西:
curl -XGET 'http://127.0.0.1:5000/api?name=XXX&prod=XXX'
而且用curl -XGET作用在以前用web.py的东西上也能得到想要的。但是,只是在screen
上显示一堆东西。并不是打开网页。
请问这是为什么?就是说用curl,不管怎样都能返回想要的东西,用links 不管怎样都
不能返回想要的东西。这样一来只要curl能跑出来东西,是不是就成了?
多谢!
avatar
c*a
9
姐姐就是一本普通的好书。
魔装很赞,但是读者适应面太小。
亵渎有一段还是开创了一个潮流(虽然雁南的想象力和文笔是很难模仿)
如果姐姐这种书都能和亵渎比的话,那么灵吸怪岂不是神作中的神作了。
avatar
s*l
10
灵吸怪我觉得比亵渎强。不过读者适应面也不大,而且经常进宫。现在第三部还在宫中
呆着呢

【在 c*****a 的大作中提到】
: 姐姐就是一本普通的好书。
: 魔装很赞,但是读者适应面太小。
: 亵渎有一段还是开创了一个潮流(虽然雁南的想象力和文笔是很难模仿)
: 如果姐姐这种书都能和亵渎比的话,那么灵吸怪岂不是神作中的神作了。

avatar
t*t
11
姐姐很不错, 比亵渎强. 烟男的作品plot太大, 自己收不住, 文笔当然很好, 但是比较
空, 靠堆细节取胜, 但是高潮太多容易麻木.
姐姐的文笔比烟男差一些, 另外后宫影响了质量, 但是plot强太多了, 节奏也控制得很
好, 有大背景, 有小故事, 有细节. 可惜太监了.
魔装是什么?

【在 a*o 的大作中提到】
: 魔装和姐姐是嘛玩意儿?没听说过。
avatar
f*r
12
坚决打倒乳熊。又太监了。。。
avatar
T*c
13
魔装就是魔装,跟姐姐,灵吸怪并列我心目中国产dnd最好的三本
而且是唯一一本全本的;)

【在 t****t 的大作中提到】
: 姐姐很不错, 比亵渎强. 烟男的作品plot太大, 自己收不住, 文笔当然很好, 但是比较
: 空, 靠堆细节取胜, 但是高潮太多容易麻木.
: 姐姐的文笔比烟男差一些, 另外后宫影响了质量, 但是plot强太多了, 节奏也控制得很
: 好, 有大背景, 有小故事, 有细节. 可惜太监了.
: 魔装是什么?

avatar
T*c
14
灵吸怪如果不太监,或者说就完成的部分来说,当然是神作
姐姐控制情节的能力非常强,而且非常善于不停的抛出小钩子小包袱钩住读者的兴趣

【在 c*****a 的大作中提到】
: 姐姐就是一本普通的好书。
: 魔装很赞,但是读者适应面太小。
: 亵渎有一段还是开创了一个潮流(虽然雁南的想象力和文笔是很难模仿)
: 如果姐姐这种书都能和亵渎比的话,那么灵吸怪岂不是神作中的神作了。

avatar
c*a
15
姐姐根本不能跟魔装和灵吸怪相提并论好不好
姐姐那书也就是还能看罢了。魔装和灵吸怪都是神作。
姐姐就是不断的暗示有XXX阴谋/内幕,最后一看还是一些很弱智的东西

【在 T***c 的大作中提到】
: 魔装就是魔装,跟姐姐,灵吸怪并列我心目中国产dnd最好的三本
: 而且是唯一一本全本的;)

avatar
p*s
16
魔装全名是啥, 我也没看过。。。

【在 T***c 的大作中提到】
: 魔装就是魔装,跟姐姐,灵吸怪并列我心目中国产dnd最好的三本
: 而且是唯一一本全本的;)

avatar
T*c
17
揍是 魔装, 起点的书,http://xuanhuan.qidian.com/Book/133868.aspx
要是我的话就给换给名字: 遗忘国度之变形金刚

【在 p****s 的大作中提到】
: 魔装全名是啥, 我也没看过。。。
avatar
e*e
18
魔装不错

【在 T***c 的大作中提到】
: 亵渎还会有现在的地位么?
avatar
p*s
19
日, 如果已经全本了要把后头vip蹭到看完, 去哪

【在 T***c 的大作中提到】
: 揍是 魔装, 起点的书,http://xuanhuan.qidian.com/Book/133868.aspx
: 要是我的话就给换给名字: 遗忘国度之变形金刚

avatar
T*c
20
两个办法
1.找个广告少的盗版书站看
2.等我没书看了就去吧vip的章节全买了,然后你上我账号看。。。

【在 p****s 的大作中提到】
: 日, 如果已经全本了要把后头vip蹭到看完, 去哪
avatar
p*s
21
那我还是等着上你罢。。。

【在 T***c 的大作中提到】
: 两个办法
: 1.找个广告少的盗版书站看
: 2.等我没书看了就去吧vip的章节全买了,然后你上我账号看。。。

avatar
v*d
22
觉得姐姐比魔装好
avatar
X*r
23
赞同灵吸怪是神作。
姐姐虽然文笔略差,其它还是不错的。
魔装还没看过。

【在 c*****a 的大作中提到】
: 姐姐根本不能跟魔装和灵吸怪相提并论好不好
: 姐姐那书也就是还能看罢了。魔装和灵吸怪都是神作。
: 姐姐就是不断的暗示有XXX阴谋/内幕,最后一看还是一些很弱智的东西

avatar
t*t
24
我排队等着上。

【在 p****s 的大作中提到】
: 那我还是等着上你罢。。。
avatar
t*o
25
下载人人阅读
搜索就可以
直接看TXT版本没广告的
魔装是好书

【在 p****s 的大作中提到】
: 日, 如果已经全本了要把后头vip蹭到看完, 去哪
avatar
t*o
26
灵吸怪都出2部了?

【在 s***l 的大作中提到】
: 灵吸怪我觉得比亵渎强。不过读者适应面也不大,而且经常进宫。现在第三部还在宫中
: 呆着呢

avatar
T*c
27
人人阅读是app? 有android版的没。。。

【在 t***o 的大作中提到】
: 下载人人阅读
: 搜索就可以
: 直接看TXT版本没广告的
: 魔装是好书

avatar
t*o
28
是电脑版的
安卓版也有,不怎么好用

【在 T***c 的大作中提到】
: 人人阅读是app? 有android版的没。。。
avatar
b*s
29
魔装好像我一两年前还推荐过,是我向往的人格
灵吸怪是同病相怜,小时候重病过一年
avatar
i*h
30
尼玛灵吸怪才那么一点就没了
大家还是念念不忘

【在 X****r 的大作中提到】
: 赞同灵吸怪是神作。
: 姐姐虽然文笔略差,其它还是不错的。
: 魔装还没看过。

avatar
T*c
31
魔装我也是在这里看到有人推荐才没错过,说不定就是你推荐的,lol
有句台词一直记得,好像是 象我这样的xx战士,应该只开火,不说话

【在 b*******s 的大作中提到】
: 魔装好像我一两年前还推荐过,是我向往的人格
: 灵吸怪是同病相怜,小时候重病过一年

avatar
p*s
32
昨晚刚读了个头, 然后被LD叫去修电脑,就没有往下继续了。

【在 T***c 的大作中提到】
: 魔装我也是在这里看到有人推荐才没错过,说不定就是你推荐的,lol
: 有句台词一直记得,好像是 象我这样的xx战士,应该只开火,不说话

avatar
T*c
33
啊修电脑
你这是x丝逆推女神的桥段么。。。

【在 p****s 的大作中提到】
: 昨晚刚读了个头, 然后被LD叫去修电脑,就没有往下继续了。
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。