Redian新闻
>
大包求快速中通量genotyping方法
avatar
大包求快速中通量genotyping方法# Biology - 生物学
b*r
1
希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是
autogenomics,不过那个机器贵还要一个标本一块芯片,贵。
似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序
仪做,大家听过吗。或者还有什么别的技术吗
avatar
v*e
2
taqman?
avatar
b*r
3
taqman一管只能做一个snp一个dna,最低的通量啦,没法用。要中通量!
avatar
a*k
4
你们不用luminex?还有mass array也可以。
说实话taqman最容易,我们实验室一天做几百个病人,每个也是你这么多SNP

【在 b****r 的大作中提到】
: 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是
: autogenomics,不过那个机器贵还要一个标本一块芯片,贵。
: 似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序
: 仪做,大家听过吗。或者还有什么别的技术吗

avatar
b*r
5
怎么做反应呢?用BioMark之类的?那不然几百个病人+几十个位点手工加不是累死

【在 a********k 的大作中提到】
: 你们不用luminex?还有mass array也可以。
: 说实话taqman最容易,我们实验室一天做几百个病人,每个也是你这么多SNP

avatar
T*G
6
老大你们那不用 Qxt platform?用bravo automation, nextgen sequencing.

【在 b****r 的大作中提到】
: 怎么做反应呢?用BioMark之类的?那不然几百个病人+几十个位点手工加不是累死
avatar
b*r
7
我其实是在帮国内的朋友打听,希望能用比较屌丝的东西,而且批量也不大,这玩意太
杀鸡用牛刀了,taqman来搞几十个位点那也是很不秀气的一笔支出。所以我开始就打听
那种用ABI 的capillary+multiplex PCR的平台,不知道有谁用过没
你们几位请先吃包子,继续有效

【在 T*G 的大作中提到】
: 老大你们那不用 Qxt platform?用bravo automation, nextgen sequencing.
avatar
a*k
8
哥,样品照你说的不太多,直接送测序公司呗。MassArray仪器最贵,试剂最便宜。
avatar
T*G
9
我们做mcc用阿,就是做satellite SNPs,你的probe设计够好,deletion也应该能run
ABI 看出来。

【在 b****r 的大作中提到】
: 我其实是在帮国内的朋友打听,希望能用比较屌丝的东西,而且批量也不大,这玩意太
: 杀鸡用牛刀了,taqman来搞几十个位点那也是很不秀气的一笔支出。所以我开始就打听
: 那种用ABI 的capillary+multiplex PCR的平台,不知道有谁用过没
: 你们几位请先吃包子,继续有效

avatar
t*k
10
如果都是做PCR能不能这样:
合成PCR的引物前面加一组barcode序列,每个标本所有SNP只用一种barcode,然后把所
有sample P出来的东西全部mix以后NGS,在结果里利用barcode把不同标本分开。

【在 b****r 的大作中提到】
: 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是
: autogenomics,不过那个机器贵还要一个标本一块芯片,贵。
: 似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序
: 仪做,大家听过吗。或者还有什么别的技术吗

avatar
n*7
11
这不就是amplicon/targeted sequencing吗
基本策略就两类 multiplex PCR 或者probe enrichment
各有优劣了
avatar
o*a
12
就像楼上说的,基本思路就是那些。
前几天正好Affymetrix的人发来EurekaGenomics LDMA技术(Low Density Marker
Assay),可以给每个样品每种基因型加barcode然后混合在一起测序。现在好像被
Affymetrix收购了。国内找affymetrix应该就行。感觉就是个改良了的多重PCR,不知
道自己实现的难度有多大。
这有个简介
http://oardc.osu.edu/mcic/newsletters/1211_newsletter_images/EG
各个公司的多重PCR应该也实现了类似功能,不知道具体性能如何

【在 b****r 的大作中提到】
: 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是
: autogenomics,不过那个机器贵还要一个标本一块芯片,贵。
: 似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序
: 仪做,大家听过吗。或者还有什么别的技术吗

avatar
b*r
13
当然可以这么做
不过NGS 做这么一点点genotyping还是有点用牛刀吧,除非真的可以标本量很大

【在 t******k 的大作中提到】
: 如果都是做PCR能不能这样:
: 合成PCR的引物前面加一组barcode序列,每个标本所有SNP只用一种barcode,然后把所
: 有sample P出来的东西全部mix以后NGS,在结果里利用barcode把不同标本分开。

avatar
b*r
14
一个患者测个10多个序,一个月几百个患者,那不是一点点钱啊。还有个问题就是
Sanger的自动识别能力比较差,自动化程度不够

【在 a********k 的大作中提到】
: 哥,样品照你说的不太多,直接送测序公司呗。MassArray仪器最贵,试剂最便宜。
avatar
b*r
15
看了下,步骤好多啊,必须得专门买他们这个大仪器,不知道猴年马月能收回成本。。。

【在 o*****a 的大作中提到】
: 就像楼上说的,基本思路就是那些。
: 前几天正好Affymetrix的人发来EurekaGenomics LDMA技术(Low Density Marker
: Assay),可以给每个样品每种基因型加barcode然后混合在一起测序。现在好像被
: Affymetrix收购了。国内找affymetrix应该就行。感觉就是个改良了的多重PCR,不知
: 道自己实现的难度有多大。
: 这有个简介
: http://oardc.osu.edu/mcic/newsletters/1211_newsletter_images/EG
: 各个公司的多重PCR应该也实现了类似功能,不知道具体性能如何

avatar
s*r
16
如果对时间要求不高的,能一周一批做甚至一个月一批的肯定NGS最便宜,平均下来一
个病人几块钱的成本,benchtop的NGS又不是什么高大上的东西,这种通量正好

【在 b****r 的大作中提到】
: 一个患者测个10多个序,一个月几百个患者,那不是一点点钱啊。还有个问题就是
: Sanger的自动识别能力比较差,自动化程度不够

avatar
b*r
17
不太可能做到一个标本几美元吧,一个患者做几个位点?能达到什么样的覆盖深度?

【在 s******r 的大作中提到】
: 如果对时间要求不高的,能一周一批做甚至一个月一批的肯定NGS最便宜,平均下来一
: 个病人几块钱的成本,benchtop的NGS又不是什么高大上的东西,这种通量正好

avatar
s*r
18
一个位点几块钱
amplicon不用考虑coverage,随便一个位点都是上千上万的,跑一个run本身不贵的可
能就1-2千,library prep那步成本差异比较大看用土豪还是钓丝做法

【在 b****r 的大作中提到】
: 不太可能做到一个标本几美元吧,一个患者做几个位点?能达到什么样的覆盖深度?
avatar
v*g
19
一个字,luminex。
avatar
o*a
20
没看到要买专有仪器啊,就是用他们的试剂扩增建库拿去测序

。。

【在 b****r 的大作中提到】
: 看了下,步骤好多啊,必须得专门买他们这个大仪器,不知道猴年马月能收回成本。。。
avatar
b*r
21
还是不能这么说吧,打个比方用最屌丝的PGM, 小芯片314, 一个run才30M data,如果
200个标本50个位点,要分成一万份,每个bp平均也就10个coverage,会有大量漏掉的
,根本没法用吧。
另外就是你说的library prep了,这个贵得很啊,有什么最屌丝的做法的SOP吗?

【在 s******r 的大作中提到】
: 一个位点几块钱
: amplicon不用考虑coverage,随便一个位点都是上千上万的,跑一个run本身不贵的可
: 能就1-2千,library prep那步成本差异比较大看用土豪还是钓丝做法

avatar
s*r
22
ion torrent的机器没什么人用了,都是用的illumina,miseq一个run出10-20m的reads
,5G的data,芯片本身也就一千多块,一万个位点做一个pool理论可行但保险点的还是
要上大机器,或者拆成几份跑
amplicon的library prep说到底就是个PCR

【在 b****r 的大作中提到】
: 还是不能这么说吧,打个比方用最屌丝的PGM, 小芯片314, 一个run才30M data,如果
: 200个标本50个位点,要分成一万份,每个bp平均也就10个coverage,会有大量漏掉的
: ,根本没法用吧。
: 另外就是你说的library prep了,这个贵得很啊,有什么最屌丝的做法的SOP吗?

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。