•          Kurs Detay

Makine öğrenim sistemlerinin gerçek dünya için yeterince sağlam olup olmadığı nasıl anlaşılır?

MIT araştırmacıları, sinir ağları olarak bilinen makine öğrenme modellerinin, çeşitli işler için ne kadar güçlü olduklarını, ne zaman hata yapmaları gerektiğini saptayarak değerlendirmek için bir yöntem geliştirdiler. Konvolüsyonel sinir ağları (CNN'ler) bilgisayar görüşü ve diğer birçok görev için görüntüleri işlemek ve sınıflandırmak için tasarlanmıştır. Ancak, insan gözüyle algılanamayan küçük değişiklikler - örneğin, bir görüntü içinde birkaç koyu piksel - bir CNN'nin çok farklı bir sınıflandırma üretmesine neden olabilir. Bu tür değişiklikler “ters örnekler” olarak bilinir. Ters örneklerin sinir ağları üzerindeki etkilerini araştırmak, araştırmacıların modellerinin gerçek dünyada beklenmedik girdilere karşı nasıl savunmasız olabileceğini belirlemelerine yardımcı olabilir. Örneğin, şoförsüz araçlar görsel girişi işlemek ve uygun bir cevap üretmek için CNN'leri kullanabilir. Otomobil bir dur işaretine yaklaşırsa, işareti algılar ve durur. Ancak 2018 tarihli bir yazı, dur işareti üzerine belirli bir siyah-beyaz çıkartmanın yerleştirilmesinin, aslında sürücünün arızalı bir CNN'in işaretini yanlış sınıflandırmasına neden olabileceğini, bu da potansiyel olarak durmamasına neden olabileceğini buldu.