محققان در پژوهش علمی جدیدی با استفاده از رابط مغز و کامپیوتر (BCI) پیشرفته، این فرصت را در اختیار فردی که بهدلیل بیماری ALS توانایی تکلم خود را از دست داده بود، قرار دادند تا دوباره آنی و با صدای شبیهسازیشده خود صحبت کند و حتی آوازهایی با ملودیهای ساده بخواند.
براساس گزارش نیواطلس، دانشمندان دانشگاه کالیفرنیا، دیویس (UC Davis) سیستم ایمپلنت مغزی جدیدی توسعه دادهاند که سیگنالهای عصبی گفتار را به کلمات و صدا تبدیل میکند. این فناوری روی فردی مبتلا به بیماری اسکلروز جانبی آمیوتروفیک (ALS) آزمایش شد و به او این امکان را داد که اولین بار پس از مدتها، تقریباً آنی و با صدایی شبیه صدای اصلی خود، ارتباط برقرار کند.
این سیستم پیشرفته برخلاف تصور عموم، افکار را نمیخواند, 4 آرایه میکروالکترود که با جراحی در ناحیهای از مغز که مسئول کنترل فیزیکی عضلات گفتار (قشر حرکتی) است کاشته میشود، سیگنالهای عصبی را در لحظهای که بیمار تلاش میکند کلمهای به زبان بیاورد، ثبت میکنند.
سپس هوش مصنوعی این سیگنالها را رمزگشایی و به گفتار تبدیل میکند. کل این فرایند از دریافت سیگنال تا تولید صدا، فقط 10 میلیثانیه طول میکشد که این سرعت بالا، امکان گفتگوی طبیعی و روان را فراهم میکند. یکی از ویژگیهای برجسته این سیستم استفاده از الگوریتم شبیهسازی صداست که با استفاده از نمونههای صوتی ضبطشده از بیمار قبل از ابتلا به ALS، صدایی کاملاً شبیه صدای خودش را بازسازی میکند.
این دستاورد فقط به بازگرداندن توان تکلم محدود نمیشود. سیستم هوشمند محققان UC Davis میتواند تفاوتهای ظریف در سیگنالهای مغزی را تشخیص دهد؛ برای مثال این سیستم میتواند قصد بیمار برای آوازخواندن را تشخیص بدهد و صدای تولیدشده را روی 3 گام (pitch) مختلف تنظیم کند تا ملودیهای سادهای را بخواند. همچنین این سیستم میتواند تفاوت جمله خبری و سؤالی را تشخیص دهد، بر کلمات خاصی تأکید کند و حتی اصواتی مانند «آه»، «اوه» و «همم» را تولید کند.
یافتههای این پژوهش در نیچر منتشر شده است.