Redian新闻
>
求教DNA binding protein Mobility Shift Assay
avatar
求教DNA binding protein Mobility Shift Assay# Biology - 生物学
s*a
1
搞不清楚,我晕。。。
avatar
z*y
2
想接我妈过来,请问机票是买一年往返还是半年?谢谢。
avatar
z*g
3
都是些啥破玩意儿啊。。
avatar
n*w
4
准备玩玩ml这几个该选哪个?
avatar
C*e
5
想问问看版上做DNA binding protein的同学
有没有简单的方法,不做放射性同位素标记的,Mobility Shift Assay啊?
现在我们手头有一个细菌蛋白
是属于某个细菌细胞器的
该细胞器和DNA无关
但这个蛋白的具体功能未知
只是有不寻常的high pI (>11)
在纯化该蛋白的时候发现UV reading近乎DNA
事实也证明跑胶以后目标蛋白很少
UV reading一多半来自于DNA
过SEC之后能把蛋白和DNA分开
有没有办法做个简单的测试
验证该蛋白能结合DNA?
哪怕是非特异性的
avatar
z*3
6
你收了他的税之后呢?你是打算把税交给税务局还是自己眯了?
avatar
i*c
7
半年,一年的入关时可能会被刁难
avatar
c*x
8
没办法。
avatar
w*g
9
theano和tensorflow都行。theano上手快点。
不过这两个都是deep learning。更一般的ML应该从
scikit-learn入手。
spark是做大数据的,不是典型ML,今年已经过气了。
微软的那个软件我没用过,在deep learning界没有
气候。倒是Torch7有一批用趸。

【在 n*w 的大作中提到】
: 准备玩玩ml这几个该选哪个?
avatar
t*6
10
random binding selection
avatar
f*w
11
ebay有tax吗?
avatar
s*1
12
觉得不错啊,昨天的那个hockey就很好。以前还下了Plants & Zombies

【在 z****g 的大作中提到】
: 都是些啥破玩意儿啊。。
avatar
w*z
13
spark 过气了?哪个是替代品?

【在 w***g 的大作中提到】
: theano和tensorflow都行。theano上手快点。
: 不过这两个都是deep learning。更一般的ML应该从
: scikit-learn入手。
: spark是做大数据的,不是典型ML,今年已经过气了。
: 微软的那个软件我没用过,在deep learning界没有
: 气候。倒是Torch7有一批用趸。

avatar
C*e
14
悟性不够
再详细点儿?
不是用简并寡核酸片段建库筛选吧
我不是要做evolution
也不是非要push这个蛋白绑个核酸不可啊

【在 t******6 的大作中提到】
: random binding selection
avatar
s*a
15
报税时候交上去?

【在 z*******3 的大作中提到】
: 你收了他的税之后呢?你是打算把税交给税务局还是自己眯了?
avatar
C*5
16
wdong大牛,新的pytorch可曾试过?

【在 w***g 的大作中提到】
: theano和tensorflow都行。theano上手快点。
: 不过这两个都是deep learning。更一般的ML应该从
: scikit-learn入手。
: spark是做大数据的,不是典型ML,今年已经过气了。
: 微软的那个软件我没用过,在deep learning界没有
: 气候。倒是Torch7有一批用趸。

avatar
H*g
17
Get the sequence of that DNA and then label with biotin
You may try gel shift assay with Chemiluminescent Nucleic Acid Detection Kit
from Pierce.
avatar
s*a
18
不知道呀。。。

【在 f*******w 的大作中提到】
: ebay有tax吗?
avatar
w*g
19
big data整个过气了。

【在 w**z 的大作中提到】
: spark 过气了?哪个是替代品?
avatar
C*e
20
DNA sequence未知
不过准备看看能不能把和蛋白一起纯化下来的DNA进一步分离纯化
然后放到载体里
测序看序列
只能想到这么笨的方法

Kit

【在 H*g 的大作中提到】
: Get the sequence of that DNA and then label with biotin
: You may try gel shift assay with Chemiluminescent Nucleic Acid Detection Kit
: from Pierce.

avatar
x*o
21
理论上应该收,理论上要上缴。
实际上可以收,可以不上缴。
avatar
w*g
22
没试过。我用tensorflow。torch本身就是第二阵营, pytorch还能超过torch了?
想少走弯路,上tensorflow肯定没错。用的人多,坑就少。

【在 C*****5 的大作中提到】
: wdong大牛,新的pytorch可曾试过?
avatar
z*6
23
作gel shift assay 吧。。我最近也在研究这个东西。。打算试试下面这个kit。。这
里面有两个dye。。一个结合DNA,一个结合蛋白。而且很敏感。。目前是不lab
el的最敏感的方法了。。
http://products.invitrogen.com/ivgn/product/E33075
avatar
n*0
24
only if you are allowed and required by law to collect tax in the state.
avatar
x*4
25
正解!现在这些项目都是开源的,很少说一样东西只有用某一个项目才能做。相反大家
都是上班混饭吃的,不要浪费时间给别人做tester。一个项目用的人多,bug自然容易
被发现,你有问题也容易在stackoverflow之类的地方找到答案。
上tensor flow就对了。或着更进一步,上keras (tensor flow自己支持的high level
api)。

【在 w***g 的大作中提到】
: 没试过。我用tensorflow。torch本身就是第二阵营, pytorch还能超过torch了?
: 想少走弯路,上tensorflow肯定没错。用的人多,坑就少。

avatar
x*4
26
big data变成了plumbing。大家都需要,都要知道,但是没有太多新的玩法,DevOps装
好hadoop hdfs,spark之后就大家就不想再花时间了。

【在 w***g 的大作中提到】
: big data整个过气了。
avatar
w*z
27
我觉得大多数公司才开始从 big data 中受益, 还有很多可以搞,当然大多数只是应
用层面的。deep learning 和big data 还是不太一样吧。

【在 x***4 的大作中提到】
: big data变成了plumbing。大家都需要,都要知道,但是没有太多新的玩法,DevOps装
: 好hadoop hdfs,spark之后就大家就不想再花时间了。

avatar
x*4
28
也同意。it最前的应该做dl的比较多,而其他也在确实尝试从big data里挖东西,因为
data已经在哪了,不用白不用。但是这种类型的挖东西涉及business logic比较多,
senior mgr往往有自己的想法,从it码农的角度看可能不是太有趣。

【在 w**z 的大作中提到】
: 我觉得大多数公司才开始从 big data 中受益, 还有很多可以搞,当然大多数只是应
: 用层面的。deep learning 和big data 还是不太一样吧。

avatar
s*l
29
caffe+tensorflow
学术界caffe用的人还是挺多的,比较好的结果,都是在caffe里加layer搞成的,他的
源代码也好读。
tensorflow进步非常快,上一波google没开源,后来hadoop火起来狗家也没吃到啥,所
以这次吸取教训大力推tensorflow 1.0,资源很丰富,周围玩的人也多,值得搞一下。
另外玩deep learning的话务必上ubuntu,mac/centos/windows都有诸般不爽。

【在 n*w 的大作中提到】
: 准备玩玩ml这几个该选哪个?
avatar
k*f
30
玩dl,还是在Google cloud platform上面玩比较爽的,存储和计算都解决,可以很多
gpu一起跑tf程序。

【在 s**********l 的大作中提到】
: caffe+tensorflow
: 学术界caffe用的人还是挺多的,比较好的结果,都是在caffe里加layer搞成的,他的
: 源代码也好读。
: tensorflow进步非常快,上一波google没开源,后来hadoop火起来狗家也没吃到啥,所
: 以这次吸取教训大力推tensorflow 1.0,资源很丰富,周围玩的人也多,值得搞一下。
: 另外玩deep learning的话务必上ubuntu,mac/centos/windows都有诸般不爽。

avatar
s*k
31
Amazon家的AWS不是支持mxnet了吗?很多国人大牛领头搞得

【在 k****f 的大作中提到】
: 玩dl,还是在Google cloud platform上面玩比较爽的,存储和计算都解决,可以很多
: gpu一起跑tf程序。

avatar
k*f
32
mxnet是厉害,就是用户群不够大。

【在 s********k 的大作中提到】
: Amazon家的AWS不是支持mxnet了吗?很多国人大牛领头搞得
avatar
x*u
33
AWS支持CUDA应该什么架构都支持,这个钦定指的是官方image里面有吧

【在 s********k 的大作中提到】
: Amazon家的AWS不是支持mxnet了吗?很多国人大牛领头搞得
avatar
s*e
34
大牛,前阵子我才听你说mxnet的C++ API好用.
为什么又转tensorflow了? 主要是"用的人多,坑就少
" 么?

【在 w***g 的大作中提到】
: 没试过。我用tensorflow。torch本身就是第二阵营, pytorch还能超过torch了?
: 想少走弯路,上tensorflow肯定没错。用的人多,坑就少。

avatar
w*g
35
这些框架大同小异。之前我在整合所有框架的API,
对比发现mxnet的C++ API最干净。后来我连torch
也整合了,发现lua的API比python的也要干净。
我现在自己开发主要用tensorflow。原因就是用的
人多,开发的人也多,众人拾柴火焰高。我没研究
过TF和mxnet细节上的不同,有人说mxnet的设计更
好。不过我觉得这些框架都大同小异没有本质区别。
从API看,TF要比别人丰富。应该也根人多有关系。

【在 s*****e 的大作中提到】
: 大牛,前阵子我才听你说mxnet的C++ API好用.
: 为什么又转tensorflow了? 主要是"用的人多,坑就少
: " 么?

avatar
k*u
36
copy的mxnet作者的blog:
对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接
口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主
语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌
入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative
programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提
供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative
programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括
Caffe,theano和刚公布的TensorFlow。
目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将
两种模式无缝的结合起来。在命令式编程上MXNet提供张量运算,而声明式编程中MXNet
支持符号表达式。用户可以自由的混合它们来快速实现自己的想法。例如我们可以用声
明式编程来描述神经网络,并利用系统提供的自动求导来训练模型。另一方便,模型的
迭代训练和更新模型法则中可能涉及大量的控制逻辑,因此我们可以用命令式编程来实
现。同时我们用它来进行方便地调式和与主语言交互数据。
下表我们比较MXNet和其他流行的深度学习系统
主语言 从语言 硬件 分布式 命令式 声明式
Caffe C++ Python/Matlab CPU/GPU x x v
Torch Lua - CPU/GPU/FPGA x v x
Theano Python - CPU/GPU x v x
TensorFlow C++ Python CPU/GPU/Mobile v x v
MXNet1 C++ Python/R/Julia/Go CPU/GPU/Mobile v v v
avatar
w*g
37
还有tensorflow是最有可能实现对mobile GPU支持的一个。

【在 w***g 的大作中提到】
: 这些框架大同小异。之前我在整合所有框架的API,
: 对比发现mxnet的C++ API最干净。后来我连torch
: 也整合了,发现lua的API比python的也要干净。
: 我现在自己开发主要用tensorflow。原因就是用的
: 人多,开发的人也多,众人拾柴火焰高。我没研究
: 过TF和mxnet细节上的不同,有人说mxnet的设计更
: 好。不过我觉得这些框架都大同小异没有本质区别。
: 从API看,TF要比别人丰富。应该也根人多有关系。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。