w*g
2 楼
讨论了半天AI的可行性,接下来就是怎么操作了。
所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
我们做这个AI,必须师出有名,也就是有一个
优化目标,而且这个优化目标必须符合宇宙运行
的原理。在这个目标的指导下我们具体操作起来
才能事倍功半。这里先给个摘要。
我多年思考的结论就是,最适合作为一个generic
strong AI的优化目标就是:max(I), I=信息。
这个目标基于下面三个原理:
1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。
例1. 狼vs羊。羊吃草,熵增慢,狼吃羊,熵增快,
狼比羊更高级。
例2. 中国vs美国。随便查了个耗电量。
https://en.wikipedia.org/wiki/List_of_countries_by_electricity_consumption
从总体耗电量看,中国比美国更高级。
从per capita看,美国比中国更高级。
所以我们设计一个AI,熵增未必是直接目标,但是
一个好的目标在优化过程中必然导致很快很大的熵增。
2. Passive AI 等价于信息压缩
或者说是降低信息存储的成本。这个可以参考我之前的文章。
http://www.wdong.org/ji-qi-xue-xi-nei-gong-zong-gang.html
以及这个
https://en.wikipedia.org/wiki/Hutter_Prize
可以说,压缩做到了极致,就是AI。
比如对一堆质点进行机械运动的数据进行压缩,压缩到极致就是
牛顿定律+初始状态,intelligence就出来了。
这里说的是passive AI。至于active AI,也就是装备了AI的
agent,那还要考虑信息获取的成本和策略等等。这方面目前还没有研究。
前面有人讨论人的happiness。其实抛开生殖相关的那套东西,
人的很多happiness也是来源于信息的获取。比如人脑乍看到一个新鲜
东西会很干兴趣,因为信息增加了。同一个东西看多了会变得boring,
是因为没有新增的信息了。有时候看到一个笑话,两个不相关的东西
因为某种出乎意料的原因联系起来了,这种意外的神经连接很可能导致
大脑存储成本的急剧降低,刺激是如此强烈以至于人会笑出声来。
这一套reward系统我觉得对active AI同样适用。
3. 信息=负熵
极大的信息获取必然导致AI系统外部极大的熵增。这一点目前小规模的
passive AI系统体现不出来。但是这个保证了AI发展到一定程度后
可以“顺天者昌”。
目前用GPU训练的神经网络,我觉得其实真的是非常小儿科。
按照我的预测,下一步的AI很可能需要涉及大规模存储。
在算法上,这个需要人们开发出一个可以拼接的神经网络。
目前的多层神经网络是没法拼接的,中间任意一层结构改了,
整个网络,至少后续部分都得重新训练。这就决定了一个神经网络
的capacity不可能太大。一旦拼接的问题解决了,再配以早就
已经研究成熟的大规模信息索引技术,AI的能力将获得极大的扩展。
神经网络的fragment也就是知识点,将被以graph的形式存储在
磁盘/内存里并且以social network的方式被索引。
我预期创造性AI(写文章)很可能依赖这种拼接技术。
我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
的根本性改变。
再具体一些。
我统计过,目前的CNN的神经元状态其实是非常稀疏的,其中绝大
部分都是0。换句话说,GPU进行的大量运算都是在做无用功。
实际有用的计算量,GPU其实比CPU高不了太多。未来几年内,
GPU vs CPU+大内存 势必还有一战。最后很可能是Intel在CPU内
引入某种GPU的计算能力后,以大内存优势胜出。而且一般来说,
计算速度上的劣势可以通过大内存来弥补,只是算法要具体研究。
Update:
dracodoc在这里提到了block chain
http://mitbbs.com/article1/Programming/31505627_3_0.html
我觉得block chain对大规模社会化计算的组织能力是无可匹敌的,
但是目前的block chain缺乏一个意义,就是为算而算。如果以合
适的方法把max(I)和block chain结合起来,并且把storage和算
法纳入计价系统,那很有可能会演化出天网。
所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
我们做这个AI,必须师出有名,也就是有一个
优化目标,而且这个优化目标必须符合宇宙运行
的原理。在这个目标的指导下我们具体操作起来
才能事倍功半。这里先给个摘要。
我多年思考的结论就是,最适合作为一个generic
strong AI的优化目标就是:max(I), I=信息。
这个目标基于下面三个原理:
1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。
例1. 狼vs羊。羊吃草,熵增慢,狼吃羊,熵增快,
狼比羊更高级。
例2. 中国vs美国。随便查了个耗电量。
https://en.wikipedia.org/wiki/List_of_countries_by_electricity_consumption
从总体耗电量看,中国比美国更高级。
从per capita看,美国比中国更高级。
所以我们设计一个AI,熵增未必是直接目标,但是
一个好的目标在优化过程中必然导致很快很大的熵增。
2. Passive AI 等价于信息压缩
或者说是降低信息存储的成本。这个可以参考我之前的文章。
http://www.wdong.org/ji-qi-xue-xi-nei-gong-zong-gang.html
以及这个
https://en.wikipedia.org/wiki/Hutter_Prize
可以说,压缩做到了极致,就是AI。
比如对一堆质点进行机械运动的数据进行压缩,压缩到极致就是
牛顿定律+初始状态,intelligence就出来了。
这里说的是passive AI。至于active AI,也就是装备了AI的
agent,那还要考虑信息获取的成本和策略等等。这方面目前还没有研究。
前面有人讨论人的happiness。其实抛开生殖相关的那套东西,
人的很多happiness也是来源于信息的获取。比如人脑乍看到一个新鲜
东西会很干兴趣,因为信息增加了。同一个东西看多了会变得boring,
是因为没有新增的信息了。有时候看到一个笑话,两个不相关的东西
因为某种出乎意料的原因联系起来了,这种意外的神经连接很可能导致
大脑存储成本的急剧降低,刺激是如此强烈以至于人会笑出声来。
这一套reward系统我觉得对active AI同样适用。
3. 信息=负熵
极大的信息获取必然导致AI系统外部极大的熵增。这一点目前小规模的
passive AI系统体现不出来。但是这个保证了AI发展到一定程度后
可以“顺天者昌”。
目前用GPU训练的神经网络,我觉得其实真的是非常小儿科。
按照我的预测,下一步的AI很可能需要涉及大规模存储。
在算法上,这个需要人们开发出一个可以拼接的神经网络。
目前的多层神经网络是没法拼接的,中间任意一层结构改了,
整个网络,至少后续部分都得重新训练。这就决定了一个神经网络
的capacity不可能太大。一旦拼接的问题解决了,再配以早就
已经研究成熟的大规模信息索引技术,AI的能力将获得极大的扩展。
神经网络的fragment也就是知识点,将被以graph的形式存储在
磁盘/内存里并且以social network的方式被索引。
我预期创造性AI(写文章)很可能依赖这种拼接技术。
我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
的根本性改变。
再具体一些。
我统计过,目前的CNN的神经元状态其实是非常稀疏的,其中绝大
部分都是0。换句话说,GPU进行的大量运算都是在做无用功。
实际有用的计算量,GPU其实比CPU高不了太多。未来几年内,
GPU vs CPU+大内存 势必还有一战。最后很可能是Intel在CPU内
引入某种GPU的计算能力后,以大内存优势胜出。而且一般来说,
计算速度上的劣势可以通过大内存来弥补,只是算法要具体研究。
Update:
dracodoc在这里提到了block chain
http://mitbbs.com/article1/Programming/31505627_3_0.html
我觉得block chain对大规模社会化计算的组织能力是无可匹敌的,
但是目前的block chain缺乏一个意义,就是为算而算。如果以合
适的方法把max(I)和block chain结合起来,并且把storage和算
法纳入计价系统,那很有可能会演化出天网。
F*t
3 楼
有钱人就放成套的
我普通人,一年四季用一样的
老外感觉就喜欢这些表面功夫
我普通人,一年四季用一样的
老外感觉就喜欢这些表面功夫
g*t
4 楼
(1)
无损压缩和有损压缩是本质不同的啊。
你看过 Kolmogorov complexity 吧?
我觉得物理本质上是聪明的有损压缩。
例如你说的牛顿定律是压缩质点运动的轨迹。
严格的说,应该是牛顿定律近似的压缩了
实际物体运动的轨迹。
(2)
你说的那个拼接问题。方向最后应该是universal neural machine?
就是神经网络在一个特殊的神经网络上获得表达。然后才能composable
【在 w***g 的大作中提到】
: 讨论了半天AI的可行性,接下来就是怎么操作了。
: 所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
: 我们做这个AI,必须师出有名,也就是有一个
: 优化目标,而且这个优化目标必须符合宇宙运行
: 的原理。在这个目标的指导下我们具体操作起来
: 才能事倍功半。这里先给个摘要。
: 我多年思考的结论就是,最适合作为一个generic
: strong AI的优化目标就是:max(I), I=信息。
: 这个目标基于下面三个原理:
: 1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。
无损压缩和有损压缩是本质不同的啊。
你看过 Kolmogorov complexity 吧?
我觉得物理本质上是聪明的有损压缩。
例如你说的牛顿定律是压缩质点运动的轨迹。
严格的说,应该是牛顿定律近似的压缩了
实际物体运动的轨迹。
(2)
你说的那个拼接问题。方向最后应该是universal neural machine?
就是神经网络在一个特殊的神经网络上获得表达。然后才能composable
【在 w***g 的大作中提到】
: 讨论了半天AI的可行性,接下来就是怎么操作了。
: 所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
: 我们做这个AI,必须师出有名,也就是有一个
: 优化目标,而且这个优化目标必须符合宇宙运行
: 的原理。在这个目标的指导下我们具体操作起来
: 才能事倍功半。这里先给个摘要。
: 我多年思考的结论就是,最适合作为一个generic
: strong AI的优化目标就是:max(I), I=信息。
: 这个目标基于下面三个原理:
: 1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。
F*t
5 楼
所以全美各地到处都是storage
C*5
6 楼
虽然没看太懂,跪舔了再说
d*r
8 楼
"""
我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
的根本性改变。
"""
那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
node 之间的 networking 做得更高速更可编程?
我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
的根本性改变。
"""
那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
node 之间的 networking 做得更高速更可编程?
w*g
10 楼
对。我觉得linux cluster的计算和存储能力更强。
单个node的算力可以用GPU增强。但是如果算法变了,
GPU的SIMD架构可能拼不过CPU。一般来说,计算速度上
的劣势可以通过大内存来弥补,只是算法要具体研究。
算法铁三角:时间,空间,准确度三者不可得兼。
很多算法都在研究怎么用其中两者去换第三者。
【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?
单个node的算力可以用GPU增强。但是如果算法变了,
GPU的SIMD架构可能拼不过CPU。一般来说,计算速度上
的劣势可以通过大内存来弥补,只是算法要具体研究。
算法铁三角:时间,空间,准确度三者不可得兼。
很多算法都在研究怎么用其中两者去换第三者。
【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?
l*s
13 楼
要看个人爱好了
床单也一样,根据心情用什么色彩的床单
床单也一样,根据心情用什么色彩的床单
g*t
14 楼
现在需求还只是在界面,还早
【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?
【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?
l*m
18 楼
看来你没写过gemm, conv kenels,main memory太慢了。dl主要拼memory in chip.
【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?
【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?
d*c
26 楼
补充几点:
熵增:
------------
单纯说熵增快就更高级简化了一点,自然过程本身是熵增的,自组织,信息过程,生物
,智能有组织化,熵减的倾向,但这以消耗能量,造成外界熵增为代价。
能熵减最大化的个体是最高级的,这建立在消耗能量,消耗其他生物的贡献基础上(很
多时候效率很低,大量浪费)。
对于人来说,不仅是个体,更是群体的熵减,也就是社会的组织程度。文化和知识也成
为系统一部分。
压缩
-------------
所谓压缩最后都是一个索引加上查表,信息量是无法压缩的,但你可以减少重复,减少
冗余,用越来越复杂的一个生成系统 + 数据来重新生成原始数据。
这个推到极限就是大预言术重现历史:我们不需要记录历史,想查什么数据重演一下宇
宙就行。
人眼中的压缩有时似乎体现了事物本质,那只是人习惯这种表现方式而已。最本质的对
一件事的描述只有一种:时间空间坐标,一个指针。
GPU计算
--------------
AMD能把GPU和CPU做在一起,这方向有前景,看它做的怎么样。我发现AMD现在在软件上
发展的不错,Ryzen的性能提高实际上很多来自软件优化,还有ML, ANN,动态高精度
调整 -- 把CPU分成上千块,在毫秒级进行调整
Ryzen的核多,因为是多个die拼起来,而不是需要一个超级大的die,die越大生产良品
率越低,所以这样成本低。die之间用infinite fabric连接,这个同样适用于CPU和GPU
连接,以后做CPU GPU in a system是自然发展。
blockchain
---------------
其实我说的重点不在计算,在于信任,用开放的,计算的东西作为信任基础,这比基于
黄金的货币信用,政府信用是一大进步。
黄金的稀缺性是它的等价物保证。blockchain系统里稀缺性来自计算能力的浪费,就是
为算而算,这样的稀缺性容易控制。
熵增:
------------
单纯说熵增快就更高级简化了一点,自然过程本身是熵增的,自组织,信息过程,生物
,智能有组织化,熵减的倾向,但这以消耗能量,造成外界熵增为代价。
能熵减最大化的个体是最高级的,这建立在消耗能量,消耗其他生物的贡献基础上(很
多时候效率很低,大量浪费)。
对于人来说,不仅是个体,更是群体的熵减,也就是社会的组织程度。文化和知识也成
为系统一部分。
压缩
-------------
所谓压缩最后都是一个索引加上查表,信息量是无法压缩的,但你可以减少重复,减少
冗余,用越来越复杂的一个生成系统 + 数据来重新生成原始数据。
这个推到极限就是大预言术重现历史:我们不需要记录历史,想查什么数据重演一下宇
宙就行。
人眼中的压缩有时似乎体现了事物本质,那只是人习惯这种表现方式而已。最本质的对
一件事的描述只有一种:时间空间坐标,一个指针。
GPU计算
--------------
AMD能把GPU和CPU做在一起,这方向有前景,看它做的怎么样。我发现AMD现在在软件上
发展的不错,Ryzen的性能提高实际上很多来自软件优化,还有ML, ANN,动态高精度
调整 -- 把CPU分成上千块,在毫秒级进行调整
Ryzen的核多,因为是多个die拼起来,而不是需要一个超级大的die,die越大生产良品
率越低,所以这样成本低。die之间用infinite fabric连接,这个同样适用于CPU和GPU
连接,以后做CPU GPU in a system是自然发展。
blockchain
---------------
其实我说的重点不在计算,在于信任,用开放的,计算的东西作为信任基础,这比基于
黄金的货币信用,政府信用是一大进步。
黄金的稀缺性是它的等价物保证。blockchain系统里稀缺性来自计算能力的浪费,就是
为算而算,这样的稀缺性容易控制。
x*i
27 楼
看到这个4吋的有超好的review啊 http://www.amazon.com/Oxo-Grips-Professional-4-Inch-Santoku/dp/B000A13ODE/ref=sr_1_12?ie=UTF8&qid=1291674778&sr=8-12
我没经验所以来请教的
我没经验所以来请教的
x*i
29 楼
对不起,上面发错地方了。:(
s*i
33 楼
两套半Corelle(送掉坏掉几个),最新的一套也用了四年半了,我好节约啊,哈哈
l*m
34 楼
CPU:
An L1 cache can be accessed by one core only.
GPU:
An L1 cache can be shared by a block of threads (64 or more)
Besides L1 caches, GPU has shared memory, which can be regarded as an
explicitly managed (in your code) cache. Shared memory can be shared by a
block of threads as well.
Therefore, GPUs are able to provide more efficient memory IO given specific
operations at least.
【在 d*******r 的大作中提到】
: 这个对learning很必要么, 在CPU上软模拟的话, 最终会慢得不行么
:
: paths)
An L1 cache can be accessed by one core only.
GPU:
An L1 cache can be shared by a block of threads (64 or more)
Besides L1 caches, GPU has shared memory, which can be regarded as an
explicitly managed (in your code) cache. Shared memory can be shared by a
block of threads as well.
Therefore, GPUs are able to provide more efficient memory IO given specific
operations at least.
【在 d*******r 的大作中提到】
: 这个对learning很必要么, 在CPU上软模拟的话, 最终会慢得不行么
:
: paths)
I*a
36 楼
要不割了,
再来看看有多少happy的东西?
再来看看有多少happy的东西?
l*3
37 楼
现在完全追求清新简练使用率高。。。东西多了头疼。。。
h*c
38 楼
GPU 内存容错是怎么处理得。
k*u
39 楼
如果我有钱有地方。。。我也会有N多套餐具的。。。从小看见漂亮碗啊碟啊杯子啊啥
的就走不动道儿。。。
我在国内的家里,就有好多漂亮餐具。。。
到了这,都是学姐神马的传下来的。。。偶尔自己买一买,也是当奢侈品犒劳自己的。。。
哭泣ing。。。
的就走不动道儿。。。
我在国内的家里,就有好多漂亮餐具。。。
到了这,都是学姐神马的传下来的。。。偶尔自己买一买,也是当奢侈品犒劳自己的。。。
哭泣ing。。。
k*i
40 楼
软工竟然规划硬件发展,要么用力过猛,要么不务正业,殊不知失之毫厘差以千里。
s*k
42 楼
我很喜欢餐具
看见好看的餐具就走不动路
哎。。。
以后注定我的厨房会被塞得满满的= =
看见好看的餐具就走不动路
哎。。。
以后注定我的厨房会被塞得满满的= =
n*r
47 楼
We have several full sets of dinnerware: Lenox, Ralph Lauren, Mikasa,
Johnson Brother. We also have a lot plates, but not in full sets. Love
Lenox and Waterford by Vera Wang.
We have two full sets of flatware and two fulls sets of crystal glasses (one
for red wine and one for white wine).
Still expanding collections.
Johnson Brother. We also have a lot plates, but not in full sets. Love
Lenox and Waterford by Vera Wang.
We have two full sets of flatware and two fulls sets of crystal glasses (one
for red wine and one for white wine).
Still expanding collections.
l*i
48 楼
4人用的一套餐具,装起来也就一盒,不占多少地方。一般家里总有常用的和更好的2套
以上吧?视乎这家主人预计某些特殊场合下最多需要多少餐具,需要什么档次的餐具。
此外,客观地说,比如某纪念日搞个情调什么的,用些平日难得一用的餐具装点一下还
是会有良好效果的。
以上吧?视乎这家主人预计某些特殊场合下最多需要多少餐具,需要什么档次的餐具。
此外,客观地说,比如某纪念日搞个情调什么的,用些平日难得一用的餐具装点一下还
是会有良好效果的。
l*s
49 楼
re
骨灰瓷的餐具赏心悦目哈
觉得英国产的更细致
Love
glasses (one
【在 n********r 的大作中提到】
: We have several full sets of dinnerware: Lenox, Ralph Lauren, Mikasa,
: Johnson Brother. We also have a lot plates, but not in full sets. Love
: Lenox and Waterford by Vera Wang.
: We have two full sets of flatware and two fulls sets of crystal glasses (one
: for red wine and one for white wine).
: Still expanding collections.
骨灰瓷的餐具赏心悦目哈
觉得英国产的更细致
Love
glasses (one
【在 n********r 的大作中提到】
: We have several full sets of dinnerware: Lenox, Ralph Lauren, Mikasa,
: Johnson Brother. We also have a lot plates, but not in full sets. Love
: Lenox and Waterford by Vera Wang.
: We have two full sets of flatware and two fulls sets of crystal glasses (one
: for red wine and one for white wine).
: Still expanding collections.
l*2
50 楼
没有一套的飘过,都是七零八落的,朋友给的,自己买的
总感觉没家,买这些将来还是要丢,等有房子了,买个几套
好的餐具确实增色不少
总感觉没家,买这些将来还是要丢,等有房子了,买个几套
好的餐具确实增色不少
n*r
52 楼
Full set of dinnerware means: 12 sets of salad plates, dinner plates, soup
bowls, bread plates, desert plates or mugs. I only use the full sets for
Thanksgiving or Christmas dinner. For daily use, we have a lot of plates
from Vera Wang, Lenox, Waterford, and Mikasa, not full sets but good quality
. You can find them on sale in the department store or go to outlet. The
full set on sale is rare.
bowls, bread plates, desert plates or mugs. I only use the full sets for
Thanksgiving or Christmas dinner. For daily use, we have a lot of plates
from Vera Wang, Lenox, Waterford, and Mikasa, not full sets but good quality
. You can find them on sale in the department store or go to outlet. The
full set on sale is rare.
相关阅读
求面试用的c#,java复习材料急求一本电子书《instant testing with qunit》ClassName.thismobile app 时代,狗狗的搜索业务会怎么变化?dropwizard or springjavascript我老认为今天被project manager 震惊了:I don't know what this code is doing前端牛请进,问一下websocketpresto有人用吗?为什么javascript是好语言求推荐最好的文件浏览和编辑工具akka能和C++程序通信吗?Angular 2 Survey Results两个我永远都不想碰的语言做大项目的话,有两个语言features是杀手看CRDT又想到了火车票各路大神推荐个linux上的组合吧用react的试过中文么?Node.js 为什么升级这么快fp适合小孩学