هوش مصنوعی گوگل عکسها را زیرنویس میکند
گوگل یک الگوریتم توصیف تصاویر را به نام Show and Tell برای توسعهدهندگان منتشر کرده است. توسعهدهندگان میتوانند به آن آموزش دهند تا با دقت ۹۳٫۹ درصد اشیا را در تصاویر تشخیص دهد.
این الگوریتم متن باز گوگل از نسل سوم مدل Inception و یک سیستم بینایی جدید استفاده میکند و در تشخیص اشیای مختلف بهتر عمل میکند. محققان همچنین آن را برای دقت بیشتر بهینهسازی کردند. تیم Google Brain نوشته: «به عنوان مثال، مدل طبقهبندی تصاویر به شما میگوید که یک سگ، چمن و فریزبی در عکس وجود دارد، اما یک توصیف طبیعی درباره رنگ چمن و واکنش سگ به فریزبی هم اطلاعاتی میدهد.» نسل سوم مدل Inception نه تنها اشیا را در تصویر تشخیص میدهد بلکه رابطه بین آنها را هم میفهمد.
محققان با استفاده از زیرنویسهای تصویری انساننوشته سیستمشان را آموزش دادند. سپس این سیستم می توانست تصاویری را توصیف کند که قبلا ندیده بود. به عنوان مثال، این سیستم با استفاده از چندین تصویر سگ در ساحل، توانست زیرنویسهایی برای منظرههای مشابه اما کمی متفاوت تولید کند.
گوگل کد منبع این الگوریتم را برای روی سیستم TensorFlow منتشر کرده است تا هر کسی که علاقهمند باشد از آن استفاده کند.
ارسال نظر