μελέτη εγκεφαλικής δραστηριότητας , που υποστηρίζεται από το Facebook, που δείχνει ότι είναι δυνατή η χρήση της τεχνολογίας εγκεφαλικών κυμάτων για την αποκωδικοποίηση της ομιλίας. https://t.co/sRHGpGVvsS
@Rossatoshi @w_s_bitcoin @shane_wish far? in 2019, without a neuralink - far fewer probes - and a fairly inexpensive and naive statistical model, we were able to decode unspoken speech (words you're thinking about, but not saying aloud) https://t.co/vNmu
باحثين من جامعة كاليفونيا بيركلي و سانفرانسيسكو صمموا برنامج يقرأ النبضات الكهربائية في الدماغ و يترجمها لكلام👌👌👌👌👌 https://t.co/OUrCLkJut6
Our custom real time decoding framework (https://t.co/nXrx2nHcew), designed by our BRAVO project lead @AtDavidMoses, uses 3 interacting parts: speech detection, word classification, and language modeling. 5/13 https://t.co/PxApJMtHkq
Real-time decoding of question-and-answer speech dialogue using human cortical activity | Nature Communications https://t.co/ruTxyImw4D #MeridianResponds
Real-time decoding of question-and-answer speech dialogue using human cortical activity | Nature Communications 🔵🧠 #Bleubrain @TylerDeva @lexfridman #TG23 https://t.co/EenNUEEJN7
Real-time decoding of question-and-answer speech dialogue using human cortical activity emonstrates Trump's thoughts sound like the adults from the Peanut's cartoon. #scicomm #scicomedy #comedy #AcademicChatter #AcademicTwitter #openacademia https://t.co
RT @drmatthewmurtha: Real-time decoding of question-and-answer speech dialogue using human cortical activity still easier than listening to…
Real-time decoding of question-and-answer speech dialogue using human cortical activity still easier than listening to your girlfriend. #scicomm #scicomedy #comedy #AcademicChatter #AcademicTwitter #openacademia https://t.co/WZbjoWLbI3
RT @ArseneAhouansou: L'équipe de J. Makin, D. Moses et E. Chang (Université de Californie à San Francisco -USCF) financée par Facebook a dé…
RT @CalochChristian: Pas compliqué de lire dans le cerveau du petit Arsène où tournent en boucle seulement 3 citations, l’une de Thatcher,…
Pas compliqué de lire dans le cerveau du petit Arsène où tournent en boucle seulement 3 citations, l’une de Thatcher, une autre de Reagan et la dernière de Tintin au pays des Soviets !
RT @ArseneAhouansou: L'équipe de J. Makin, D. Moses et E. Chang (Université de Californie à San Francisco -USCF) financée par Facebook a dé…
RT @ArseneAhouansou: L'équipe de J. Makin, D. Moses et E. Chang (Université de Californie à San Francisco -USCF) financée par Facebook a dé…
L'équipe de J. Makin, D. Moses et E. Chang (Université de Californie à San Francisco -USCF) financée par Facebook a développé un système d'intelligence artificielle avec neuroprothèse qui lit la parole dans le cerveau en temps réel et avec 97% de justesse.
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
https://t.co/tHaoNBiV2P Potential to be used by #badactors for political #censorship and undue influence;
RT @davilagrau: Amazing brain computer interface: Real-time decoding of question-and-answer speech dialogue using human cortical activity h…
Amazing brain computer interface: Real-time decoding of question-and-answer speech dialogue using human cortical activity https://t.co/cLmGCkjifP #BCI #UX #HCI #trends https://t.co/4jaIi4Jvyd
This is why #biodigtialethics is so important - part of my #PhD #research. Real-time decoding of question-and-answer speech dialogue using human cortical activity -(open-access paper) FB funded research. https://t.co/R61i5xbDjf
https://t.co/LV2yDJxt3w 脳内からの信号を直接文章に変換することに成功した ただ限られた被験者の中での実験であることと 質問に対する答えが単純すぎ(1単語)なこと 精度が60-70%くらい ということなので、実用化にはまだ時間がかかりそう
#Research reading: Real-time decoding of question-and-answer speech dialogue using human cortical activity - https://t.co/dX9HpND8VO
RT @RoyalVoxPost: #MedTech #Neurology: researchers demonstrate that speech can be detected and decoded from neural activity in real-time. T…
RT @rich_jolly: Research funded by Facebook. Should we just plug our brain in directly? #behavioraleconomics #ArtificialIntelligence #Stra…
Research funded by Facebook. Should we just plug our brain in directly? #behavioraleconomics #ArtificialIntelligence #Strategy https://t.co/Zd4SNHDWis https://t.co/JyLOrOKGll
RT @naukaiprogress: В UC San Francisco разработали метод декодирования мыслей в текст в режиме реальн. времени. Люди мысленно отвечали на з…
RT @EricTopol: There's been much work on #AI speech recognition. But the implications for direct #brain to speech decoding, for patients w/…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
Fantastic! It may change the world..
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
Real-time decoding of question-and-answer speech dialogue using human cortical activity https://t.co/rFGGuAM2qE
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
RT @Daichi__Konno: 皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非…
皮質脳波計(ECoG)で記録した脳波のみから、被験者が聞いている情報と発言内容を解読できたというFacebookとUCSFの共同研究 (7月に公開された論文です)。 将来的にはこのようなテクノロジーをスマートグラスに統合したいという。 非侵襲的なBCIの方向性もとても興味深い。 https://t.co/1AdSFHpH6l https://t.co/wlpuT94Y6g
funded by FaceBook: Real-time decoding of question-and-answer speech dialogue using human cortical activity https://t.co/EltAIjpiNm
Facebook's involvement in computer-brain interfaces with UCSF is becoming a reality. How many years until we start seeing the actual implementation of this technology? And, how long until we've replaced handheld devices....https://t.co/xoEvubboUA https://t
Encore une fois, on a fait des gros progrès de décodage de parole à partir de l'activité cérébrale (voir cette recherche, en partenariat avec Facebook, qui est aussi dans les starting-blocks) mais moins sur l'encodage (envoyer une phrase dans la tête). ht
RT @EricTopol: There's been much work on #AI speech recognition. But the implications for direct #brain to speech decoding, for patients w/…
bellorio: Real-time decoding of question-and-answer speech dialogue using human cortical activity | Nature Communications https://t.co/7gx6LFRyUi
Real-time decoding of question-and-answer speech dialogue using human cortical activity | Nature Communications https://t.co/XFm8Su0HEh
RT @MaxArioli: Published: 30 July 2019. Real-time decoding of question-and-answer speech dialogue using human cortical activity. https://t.…
Facebook's involvement in computer-brain interfaces with UCSF is becoming a reality. How many years until we start seeing the actual implementation of this technology? And, how long until we've replaced handheld devices....? https://t.co/xoEvubboUA https:/
Facebook's involvement in computer-brain interfaces with UCSF is becoming a reality. How many years until we start seeing the actual implementation of this technology? And, how long until we've replaced handheld devices....https://t.co/mdtISuEujU https://t
RT @rudyagovic: Real-time decoding of question-and-answer speech dialogue using human cortical activity #ArtificialIntelligence #MachineLe…
RT @rudyagovic: Real-time decoding of question-and-answer speech dialogue using human cortical activity #ArtificialIntelligence #MachineLe…
Real-time decoding of question-and-answer speech dialogue using human cortical activity #ArtificialIntelligence #MachineLearning #DataScience https://t.co/7ohNOyYOFq https://t.co/jxguXjKMV1
RT @karinavold: Facebook financed brain-computer interface research out of @UCSF in @NatureComms 👉they’ve built an algorithm that’s able t…
RT @karinavold: Facebook financed brain-computer interface research out of @UCSF in @NatureComms 👉they’ve built an algorithm that’s able t…
RT @karinavold: Facebook financed brain-computer interface research out of @UCSF in @NatureComms 👉they’ve built an algorithm that’s able t…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @BrainFutures: Neuroscientists decode brain speech signals into written text, according to new study. Read more. @nresearchnews https:…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
Porque siempre se puede ir más lejos, Facebook quiere detectar directamente desde tu cerebro qué decisiones tomás... https://t.co/vDRRXYY0BG Acá la data de la investigación... https://t.co/EgoMdsGRdz Y nadie los va a frenar. https://t.co/3prgxFVMEO
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @mirko_ross: 🤔 Would you like #facebook to read your mind? Me not, but they are support #research in this. Here is the paper: 👉 https:/…
RT @BrainFutures: Neuroscientists decode brain speech signals into written text, according to new study. Read more. @nresearchnews https:…
RT @programaria: O facebook patrocinou pesquisas sobre a conexão entre ser humanos e máquinas com base em interfaces de realidade aumentada…
RT @programaria: O facebook patrocinou pesquisas sobre a conexão entre ser humanos e máquinas com base em interfaces de realidade aumentada…
O facebook patrocinou pesquisas sobre a conexão entre ser humanos e máquinas com base em interfaces de realidade aumentada. O artigo final foi publicado na Nature: https://t.co/vbJaPPqzU8
RT @alex_lercher: #Artificial #intelligence decodes human language via brain activity - amazing breakthrough, but also scary... @NatureCom…
RT @alex_lercher: #Artificial #intelligence decodes human language via brain activity - amazing breakthrough, but also scary... @NatureCom…