虽然已经有人工智能系统可以生成与城市街道(和其他地方)的无声图像相匹配的声音效果,但一项实验性的新技术却恰恰相反。它生成的图像与街道上的录音相匹配,准确度高得惊人。声音到图像扩散模型"由德克萨斯大学奥斯汀分校的康宇豪副教授及其同事开发,并在一个包含10秒钟视听片段的数据集上进行了训练。
这些片段由静态图像和环境声音组成,取自YouTube上的北美、亚洲和欧洲的城市和乡村街道视频。利用深度学习算法,该系统不仅学会了哪些声音与图像中的哪些项目相对应,还学会了哪些声音
训练完成后,该系统的任务是仅根据100个其他街景视频录制的环境声音生成图像,每个视频生成一张图像。
随后,一个人类评委小组在聆听图像所依据的视频背景音乐的同时,向他们展示了每张图像以及两张生成的其他街道图像。当他们被要求识别三幅图像中哪一幅与配乐相对应时,他们的平均准确率达到了80%。
更重要的是,在对生成的图像进行计算机分析时,发现它们与原始视频中开阔天空、绿色植物和建筑物的相对比例"密切相关"。
事实上,在许多情况下,生成的图像还反映了原始视频的光照条件,如晴天、阴天或夜晚。这可能是由于夜间交通噪音减少或夜间昆虫的叫声等因素造成的。
虽然这项技术可以应用于法医领域,比如大致了解录音的地点,但这项研究的目的更多的是探索声音是如何影响我们的场所感的。
科学家们在最近发表于《自然》(Nature)
了解更多:德克萨斯大学奥斯汀分校
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】