Redian新闻
>
为什么自动驾驶汽车的摄相头要局限于三原色
avatar
为什么自动驾驶汽车的摄相头要局限于三原色# Programming - 葵花宝典
m*p
1
又不是拍电影给人看,为什么不做成多原色:四色、五色、16色(如虾耙子)。
比如五原色摄相头,配合深度学习,就能更容易看见紫外光(分辨黑天的水坑或路面,
强光下的天空色板或真天空),红外光(夜晚的动物或没开灯的警车)。
虾耙子还有动态调节分辨率的功能,这样学生物的千老也有饭吃了。
再加上Sony最新的背照Starvis,微光也看得见。
有业内人士知道为什么没公司这么做么?五原色深度学习。。。
avatar
y*u
5
整这么多link,不是说好了今年要刷题转码吗?
avatar
w*g
6
人类三色是一种适应。对于别的动物,黄和绿看起来是一样的,其实光谱上看也是接近
的,所以狮子是一种保护色。人类进化出绿色视觉获得了巨大的进化优势。
我觉得自动驾驶用rgb肯定不是最优的,但问题不大。

:又不是拍电影给人看,为什么不做成多原色:四色、五色、16色(如虾耙子)。
avatar
m*p
7
查了一遍,自動駕駛不用被動遠紅外的原因:
1、價格貴,上萬美刀
2、壽命短,幾千小時
3、在美帝出口管制列表裡面
avatar
z*t
8

一开始就往大规模商业应用前景 而为了控制成本选择技术
其实现在无人车公司可以两条腿走路
其一就是为了早日达到实用安全无瑕疵 上超豪华配置版本打造形象 让民众和立法者接
受 最后可以让军方或政府公共事业买单
另一就是面向终端普通消费者

【在 m*****p 的大作中提到】
: 查了一遍,自動駕駛不用被動遠紅外的原因:
: 1、價格貴,上萬美刀
: 2、壽命短,幾千小時
: 3、在美帝出口管制列表裡面

avatar
c*v
9
之前我大概解释过,我认为自动驾驶的力学问题不过关。
但是也许自动驾驶无需力学提高呢?飞机是在不知道飞机为什么可以飞的时候出来的。
所以现在需要创造性的想法克服这问题。现在是英雄时代。


: 一开始就往大规模商业应用前景 而为了控制成本选择技术

: 其实现在无人车公司可以两条腿走路

: 其一就是为了早日达到实用安全无瑕疵 上超豪华配置版本打造形象 让民众和立
法者接

: 受 最后可以让军方或政府公共事业买单

: 另一就是面向终端普通消费者



【在 z***t 的大作中提到】
:
: 一开始就往大规模商业应用前景 而为了控制成本选择技术
: 其实现在无人车公司可以两条腿走路
: 其一就是为了早日达到实用安全无瑕疵 上超豪华配置版本打造形象 让民众和立法者接
: 受 最后可以让军方或政府公共事业买单
: 另一就是面向终端普通消费者

avatar
z*t
10
力学问题不过关 还真是你最先提过的
因为照习惯思维 柴汽油的内燃机车百年发展 力学机械问题应该研究得很透彻 且工程
实践也趋于完美
无人驾驶重点在上游前端突破
你这个力学问题不过关怎么讲?

【在 c*******v 的大作中提到】
: 之前我大概解释过,我认为自动驾驶的力学问题不过关。
: 但是也许自动驾驶无需力学提高呢?飞机是在不知道飞机为什么可以飞的时候出来的。
: 所以现在需要创造性的想法克服这问题。现在是英雄时代。
:
:
: 一开始就往大规模商业应用前景 而为了控制成本选择技术
:
: 其实现在无人车公司可以两条腿走路
:
: 其一就是为了早日达到实用安全无瑕疵 上超豪华配置版本打造形象 让民众和立
: 法者接
:
: 受 最后可以让军方或政府公共事业买单
:
: 另一就是面向终端普通消费者

avatar
s*d
11
IR sensor 就能解决,不过 目前ir sensor 产量都给手机了,轮不上汽车,也没有给自动
驾驶设计的.大部分都是给secuity camera 和 手机. 给自动驾驶用spec不完全对.

【在 m*****p 的大作中提到】
: 又不是拍电影给人看,为什么不做成多原色:四色、五色、16色(如虾耙子)。
: 比如五原色摄相头,配合深度学习,就能更容易看见紫外光(分辨黑天的水坑或路面,
: 强光下的天空色板或真天空),红外光(夜晚的动物或没开灯的警车)。
: 虾耙子还有动态调节分辨率的功能,这样学生物的千老也有饭吃了。
: 再加上Sony最新的背照Starvis,微光也看得见。
: 有业内人士知道为什么没公司这么做么?五原色深度学习。。。

avatar
m*p
12
安防的starvis還是可以的,我最近弄了一個攝像頭,其實就是3原色,但是紅色的感應
範圍特別寬,整體三種色線性度不行,估計拍照不咋地,但是夜晚應該剛剛的

【在 s***d 的大作中提到】
: IR sensor 就能解决,不过 目前ir sensor 产量都给手机了,轮不上汽车,也没有给自动
: 驾驶设计的.大部分都是给secuity camera 和 手机. 给自动驾驶用spec不完全对.

avatar
m*p
13
剛剛看了autograde imx390的spec,不過2019年才能量產
https://www.sony.net/SonyInfo/News/Press/201704/17-034E/index.html

【在 s***d 的大作中提到】
: IR sensor 就能解决,不过 目前ir sensor 产量都给手机了,轮不上汽车,也没有给自动
: 驾驶设计的.大部分都是给secuity camera 和 手机. 给自动驾驶用spec不完全对.

avatar
h*c
14
完美,你说说弹性力学,和结构力学的区别,
流体里的高雷诺数问题,
书接触过hamiltonian的概念,现在还没弄明白。
不是贬低或者卖弄,实打实的下乡帮助农民解决实际问题。

【在 z***t 的大作中提到】
: 力学问题不过关 还真是你最先提过的
: 因为照习惯思维 柴汽油的内燃机车百年发展 力学机械问题应该研究得很透彻 且工程
: 实践也趋于完美
: 无人驾驶重点在上游前端突破
: 你这个力学问题不过关怎么讲?

avatar
h*c
15
自动化本身就是重复简单的事情,无人驾驶绝对不是自动化,所以是个伦理问题,
但最终是个投资收益的问题。
avatar
m*p
16
For CMOS image sensor makers, they should make full spectrum low-light
sensors by removing both UV filter and NIR filter. Because CMOS sensor
naturally responses to 300nm ~ 1200nm wavelength, much wider than visible
range, adding additional filters is unnecessary for machine vision
application. Without these filters, camera can response in much lower lux
condition.
Canon has just introduced 19um x 19um 2.2M pixels 35MMFHDXS sensor
https://www.engadget.com/2018/04/04/canon-slow-mo-low-light-sensor/
avatar
t*x
17
人开车只要靠视觉,不是照样开的好好的。实质问题还是智能。
智能的问题解决不了,就想着靠增加传感器数量,越多传感器,数据越多,整合的难度
越大。最后还是不能解决实质的问题,还是要出事。

【在 m*****p 的大作中提到】
: For CMOS image sensor makers, they should make full spectrum low-light
: sensors by removing both UV filter and NIR filter. Because CMOS sensor
: naturally responses to 300nm ~ 1200nm wavelength, much wider than visible
: range, adding additional filters is unnecessary for machine vision
: application. Without these filters, camera can response in much lower lux
: condition.
: Canon has just introduced 19um x 19um 2.2M pixels 35MMFHDXS sensor
: https://www.engadget.com/2018/04/04/canon-slow-mo-low-light-sensor/

avatar
m*p
18
In Uber's accident, the female bicycler was not easily discernible (even for
humans) in pitch-black condition.
Human eye can detect as low as 0.0001 lux, Canon/Sony's newest CMOS sensor
can only detect 0.1 ~ 0.01 lux, camera needs much more improvement to catch
up with human naked eye.

【在 t******x 的大作中提到】
: 人开车只要靠视觉,不是照样开的好好的。实质问题还是智能。
: 智能的问题解决不了,就想着靠增加传感器数量,越多传感器,数据越多,整合的难度
: 越大。最后还是不能解决实质的问题,还是要出事。

avatar
t*x
19
不是pitch-black,有路灯的,是车子的摄像头动态范围低。
人开车,如果太黑看不清前方很多,肯定减速开了,同时会开大灯照亮更远。
Uber车不仅超速,也没有开大灯,最后还没有急刹车。没有一点是正常司机在这种情况
下会做的。

for
catch

【在 m*****p 的大作中提到】
: In Uber's accident, the female bicycler was not easily discernible (even for
: humans) in pitch-black condition.
: Human eye can detect as low as 0.0001 lux, Canon/Sony's newest CMOS sensor
: can only detect 0.1 ~ 0.01 lux, camera needs much more improvement to catch
: up with human naked eye.

avatar
m*p
20
攝像頭動態範圍低因為加入了filter,其實CMOS對紅外光也有感應,但是為了讓“人眼
“看著正常,必須加入ir cut filter,這樣本來有光亮(進紅外)的地方就黑了。
Sony Starvis就是提高紅色那塊的感應帶寬,才做到了0.1lux,但是普通照片如果不做
白平衡會嚴重偏紅。
我的意思是自動駕駛屬於機器學習,沒有必要侷限於人眼可見光範圍。
avatar
m*p
21
Mobileye, CES 2018
"In regards to sensing, Shashua said one of the two central areas involves
detecting road users and spatially compact objects, including vehicles,
pedestrians, cyclists, traffic signs, and traffic lights, which Shashua said
is mature technology and in production already; while the second area of
sensing -- parsing the roadway such as lane marks, road edges, path
delimeters, and drivable paths -- is an "open problem" that Mobileye is
continuing to work on."
這裡沒有說天氣和夜晚情況。
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。