{"id":1633,"date":"2010-06-04T17:31:44","date_gmt":"2010-06-04T15:31:44","guid":{"rendered":"https:\/\/www.endoacustica.com\/blog\/?p=1633"},"modified":"2026-04-17T16:20:02","modified_gmt":"2026-04-17T14:20:02","slug":"una-telecamera-che-scrive-quel-che-vede","status":"publish","type":"post","link":"https:\/\/www.endoacustica.com\/blog\/2010\/06\/04\/una-telecamera-che-scrive-quel-che-vede\/","title":{"rendered":"Una telecamera che scrive quel che vede"},"content":{"rendered":"<p style=\"text-align: justify;\">Proprio ieri vi abbiamo parlato di una ricerca destinata a sviluppare telecamere che possano riconoscere quello che riprendono ed interpretarne le possibili interazioni grazie all\u2019intelligenza visiva.<br \/>\nOggi invece vi parleremo di <strong>I2T<\/strong>, acronimo di \u201cImage To Text\u201d, ossia un sistema visivo computerizzato, sviluppato da ricercatori della <strong>UCLA<\/strong> californiana in collaborazione con la ObjectVideo della Virginia.<\/p>\n<p style=\"text-align: justify;\">Il software alla base di I2T contiene una serie di algoritmi visivi che analizzano le immagini, e sono in grado di compilare una sorta di lista di quello che vedono all\u2019interno di tale immagine. L\u2019immagine, in pratica, viene scomposta in una serie di forme, alle quali viene poi associato un nome.<\/p>\n<p style=\"text-align: justify;\">Il processo di associazione di forme e nomi, in realt\u00e0, contiene un fattore umano. Infatti, il progettista del sistema, Song-Chun Zhu, nel 2005 aveva partecipato ad un progetto che, con la collaborazione di alcune decine di studenti d\u2019arte, aveva catalogato un database di oltre due milioni di immagini, identificandone il contenuto e classificandole in oltre 500 diverse categorie.<\/p>\n<p style=\"text-align: justify;\">In pratica, una volta scomposta l\u2019immagine ripresa in una serie di forme, tali forme vengono confrontate con questo archivio e viene loro assegnato un nome. Inoltre, il sistema <strong><a href=\"https:\/\/objectvideolabs.com\/\" rel=\"nofollow noopener\" target=\"_blank\">Image To Text<\/a><\/strong> \u00e8 in grado di rilevare i movimenti degli oggetti all\u2019interno del filmato e di descriverli generando frasi quali \u201cUomo1 entra in automobile a 23:45 ed esce dall\u2019automobile a 26:14\u201d.<\/p>\n<p style=\"text-align: justify;\">Gli oggetti possono anche essere memorizzati e riconosciuti, in modo che se un\u2019automobile gi\u00e0 vista rientra nel campo visivo della telecamera, venga sempre chiamata, ad esempio, Automobile1 e non Automobile2.<\/p>\n<p style=\"text-align: justify;\">Il sistema I2T, che potrebbe certamente essere utilissimo per sistemi di <strong><a href=\"https:\/\/www.endoacustica.com\/telecamere-spia.php\">videosorveglianza<\/a><\/strong> a circuito chiuso, deve ancora essere ampiamente perfezionato prima di poter essere in grado di competere con le capacit\u00e0 cognitive umane ed essere finalmente commercializzato. Quindi i nostri amici guardiani notturni possono dormire sonni tranquilli, il loro lavoro non \u00e8 a rischio!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Proprio ieri vi abbiamo parlato di una ricerca destinata a sviluppare telecamere che possano riconoscere quello che riprendono ed interpretarne le possibili interazioni grazie all\u2019intelligenza visiva. Oggi invece vi parleremo di I2T, acronimo di \u201cImage To Text\u201d, ossia un sistema visivo computerizzato, sviluppato da ricercatori della UCLA californiana in collaborazione<\/p>\n","protected":false},"author":452,"featured_media":6778,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1633","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","two-columns"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/posts\/1633","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/users\/452"}],"replies":[{"embeddable":true,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/comments?post=1633"}],"version-history":[{"count":2,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/posts\/1633\/revisions"}],"predecessor-version":[{"id":9916,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/posts\/1633\/revisions\/9916"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/media\/6778"}],"wp:attachment":[{"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/media?parent=1633"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/categories?post=1633"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.endoacustica.com\/blog\/wp-json\/wp\/v2\/tags?post=1633"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}