Leachy ou Reachy ?

Dans le cadre d’un projet de recherche, Pollen Robotics et l’INCIA ont créé en 2017 Reachy, un bras robotique bio-inspiré reprenant la taille et les mobilité d’un bras adulte à 7 degrés de liberté. Reachy est destiné à être une plateforme de recherche et d’expérimentation permettant, par exemple, d’explorer de nouvelles interactions ou encore les problématiques liées à la commande dans des espaces de grandes dimensions. Open source, imprimé en 3D et modulaire, il est conçu pour pouvoir facilement s’adapter à différent setups expérimentaux !

reachyandleachyAujourd’hui Reachy est disponible dans une nouvelle version qui inclue:

  • une mécanique totalement revue permettant la réalisation de mouvements lisses et précis,
  • la cinématique inverse et directe,
  • la possibilité d’ajouter une main faite par OpenBionics,
  • une version bras gauche appelée Leachy

À ne pas rater le site web officiel de Pollen Robotics 🙂

pollen

Advertisements

3-D scanning with water

source: this website

A global team of computer scientists and engineers have developed an innovative technique for 3D shape reconstruction. This new approach to 3D shape acquisition is based on the well-known fluid displacement discovery by Archimedes and turns modeling surface reconstruction into a volumetric problem. Most notably, their method accurately reconstructs even hidden parts of an object that typical 3D laser scanners are not able to capture.

3D scannerTraditional 3D shape acquisition or reconstruction methods are based on optical devices, most commonly, laser scanners and cameras that successfully sample the visible shape surface. But this common approach tends to be noisy and incomplete. Most devices can only scan what is visible to them but hidden parts of an object remain inaccessible to the scanner’s line of sight. For instance, a typical laser scanner cannot accurately capture the belly or underside of an elephant statue, which is hidden from its line of sight.

The team’s dip transform to reconstruct complex 3D shapes utilizes liquid, computing the volume of a 3D object versus its surface. By following this method, a more complete acquisition of an object, including hidden details, can be reconstructed in 3D. Liquid has no line of sight; it can penetrate cavities and hidden parts, and it treats transparent and glossy materials identically to opaque materials, thus bypassing the visibility and optical limitations of optical and laser-based scanning devices.

water 3D scanningThe research, “Dip Transform for 3D Shape Reconstruction“, is authored by a team from Tel-Aviv University, Shandong University, Ben-Gurion University and University of British Columbia. They implemented a low-cost 3D dipping apparatus: objects in the water tank were dipped via a robotic arm. By dipping an object in the liquid along an axis, they were able to measure the displacement of the liquid volume and form that into a series of thin volume slices of the shape. By repeatedly dipping the object in the water at various angles, the researchers were able to capture the geometry of the given object, including the parts that would have normally been hidden by a laser or optical 3D scanner.

The team’s dip transform technique is related to computed tomography, an imaging method that uses optical systems for accurate scanning or to produce detailed pictures. However, the challenge with this more traditional method is that tomography-based devices are bulky and expensive and can only be used in a safe, customized environment. The team’s approach is both safe and inexpensive, and a much more appealing alternative for generating a complete shape at a low-computational cost using an innovative data collection method.

In the study, they demonstrated the new technique on 3D shapes with a range of complexity, including a hand balled up into a fist, a mother-child hugging and a DNA double helix. Their results show that the dip reconstructions are nearly as accurate as the original 3D model, paving the way to a new world of non-optical 3D shape acquisition techniques.

le Jellyfishbot, c’est génial!

source: site officiel

Le Jellyfishbot est un petit robot de dépollution téléopéré. Il permet de ramasser les macrodéchets ainsi que les hydrocarbures (pollutions de surface).

  • jfbDimensions : L = 70 cm, l = 70 cm, h = 54 cm
  • Poids : environ 16 kg
  • Propulsion : 3 moteurs électriques (dont 1 transversal)
  • Autonomie : 7 à 8 heures (2 batteries de 22 Ah)
  • Vitesse max : environ 6,5 km/h
  • Surface traitée : 1000 m²/h (à la vitesse moyenne de 2 km/h)

Bravo Nicolas! 🙂

 

what’s up, Handle?

Handle

Handle is a research robot that stands 6.5 ft tall (about 2 meters), travels at 9 mph (about 14.5 kmh) and jumps 4​ ​feet vertically (about 1.2 m). ​It uses electric power to operate both electric and hydraulic actuators, with a range of about 15 miles (about 24 km) on one battery charge. ​​​Handle uses many of the same dynamics, balance and mobile manipulation principles​ found in the quadruped and biped robots built by Boston Dynamics, but with only about 10 actuated joints, it is significantly less complex. Wheels are efficient on flat surfaces while legs can go almost anywhere: by combining wheels and legs Handle can have the best of both worlds.

R1, il primo robot per le famiglie

fonte: questo articolo de La Repubblica

R1“Sarà un robot rassicurante e piacevole”. Con queste parole, un anno e mezzo fa, Giorgio Metta annunciava a Repubblica l’inizio di un grande progetto: portare i robot umanoidi nelle case degli italiani. Oggi, sotto il suo coordinamento, quel sogno ha un nome: R1 – your personal humanoid è il primo robot sviluppato a basso costo, concepito per raggiungere il mercato di massa. Un team di 32 ricercatori e designer dell’Istituto Italiano di Tecnologia (IIT), polo d’eccellenza in Italia e nel mondo, sono riusciti nell’intento di creare un umanoide al costo di una tv di ultima generazione. E per completare l’obiettivo manca solo un passaggio: la produzione in serie. Ma non ci vorrà molto, al massimo 18 mesi e lo vedremo scorrazzare in giro per il mondo.

Un tuttofare con rotelle. R1 sarà un amico fidato che ci aiuterà nelle faccende domestiche o nel lavoro da ufficio. Lo vedremo in hotel dietro il banco della reception o in ospedale in aiuto di infermiere e caposala nella gestione di cartelle e dati. All’inizio gli dovremo insegnare tutto: dalla planimetria dell’ambiente alla collocazione degli oggetti. Ma in poco tempo sarà in grado di muoversi in autonomia, riconoscendo ambienti, volti e voci e compiendo azioni al posto nostro. Come fare un caffè o prendere il telecomando al posto nostro, senza farci alzare dal divano.
R1 body“Noi ci siamo spremuti le meningi per abbattere i costi mantenendo alta la qualità. – spiega Metta – Abbiamo cercato di rendere il tutto meno dispendioso utilizzando materiali economici, come polimeri e plastiche, che richiedono processi produttivi meno costosi rispetto a quelli tradizionali”. Il prezzo finale dipenderà da quanti robot verranno costruiti. “Per i primi 100 prototipi abbiamo individuato un target di prezzo che si aggira sui 25mila euro. Superata questa soglia, il prezzo inizierà a scendere e continuerà a calare man mano che diventerà un prodotto di consumo. La fascia, più o meno finale, di prezzo sarà di 3mila euro, quanto il costo di un moderno televisore al plasma”.

I precedenti. R1 è il risultato di un lungo percorso di sperimentazione e ricerca che raccoglie la conoscenza acquisita dai ricercatori con la creazione di altri robot, in particolare di iCub: l’umanoide costruito per gli studi sull’intelligenza artificiale, oggi presente in tutto il mondo con 30 prototipi. Rispetto a lui e agli altri umanoidi in circolazione, però, le differenze sono tante: “iCub è un prodotto di ricerca in cui il prezzo non era importante. R1 invece è un tentativo di approcciare il mercato di massa in cui il prezzo diventa questione fondamentale”, spiega Giorgio Metta.

R1 armE anche con il famoso robot umanoide Pepper, che da poco è stato adottato sulle navi da crociera, il confronto non regge perché R1 ha il dono della presa. In Pepper le mani servono solo per indicare o fare dei gesti ma non per compiere azioni. Per realizzare R1, invece, i ricercatori si sono concentrati proprio sulla possibilità di farlo interagire con l’esterno attraverso l’uso degli arti superiori, donandogli la capacità di afferrare oggetti, aprire cassetti o porte. Un valore aggiuntivo rispetto alle alternative già esistenti sul mercato, che gli assicurano un posto d’onore tra i tuttofare di casa. Le mani e gli avambracci di R1 sono rivestiti di una pelle artificiale, con sensori che conferiscono al robot il senso del tatto, permettendogli di ‘sentire’ l’interazione con gli oggetti che manipola. Il disegno delle mani è stato semplificato rispetto a quello di iCub per garantire robustezza e costi contenuti, pur consentendo l’esecuzione di semplici operazioni domestiche. Hanno la forma di due guanti a manopola e il polso è sferico, aspetti che gli permettono di sollevare pesi fino a 1,5 kg e chiudere completamente la presa attorno a ciò che afferra, specialmente oggetti cilindrici come bicchieri e bottiglie. Ma non è tutto.

R1 faceAnatomia di un robot. Dalla testa alle rotelle, R1 è un concentrato di tecnologia avanzata. Il volto è uno schermo LED a colori su cui compaiono delle espressioni stilizzate: pochi, semplici tratti per un modo semplice e veloce di comunicare con l’uomo. All’interno, invece, lo schermo ospita i sensori per la visione, due telecamere e uno scanner 3D, quelli per l’equilibrio e per la generazione e percezione del suono. Il corpo è allungabile e ‘snodabile’, con il busto che si estende fino a 140 centimetri e il torso che si torce anche lateralmente. Stesso discorso per gli arti meccanici, che possono guadagnare fino a 13 cm. Nella ‘pancia’, invece, trovano posto tre computer che governano le capacità del robot, dal calcolo al movimento della testa, sino al controllo di tutti i sensori. Una scheda wireless permette al robot di collegarsi alla rete internet, ricavando informazioni utili all’interazione con l’uomo e gli aggiornamenti del software.

La memoria di una vita.
L’idea è che queste macchine diventino il centro di tutta la nostra comunicazione digitale: mantengano l’agenda, ci aiutino a ottimizzare la pianificazione, diventino la nostra interfaccia con altri strumenti di uso quotidiano. “Man mano che il robot starà con noi, inizierà ad avere memoria di tutto ciò che facciamo e che abbiamo fatto insieme. Magari, un giorno, avrà memoria di tutta la nostra vita e gli potrò chiedere di accedere a ricordi, tra foto e video”, conclude Metta. E a questo punto è il caso di dirlo, la rivoluzione sarà entrata in casa.

SpotMini, nice to meet you

SpotMini is a new smaller version of the Spot robot, weighing 55 lbs dripping wet (65 lbs if you include its arm). SpotMini is all-electric (no hydraulics) and runs for about 90 minutes on a charge, depending on what it is doing.

SpotMini is one of the quietest robots that Boston Dynamics have ever built. It has a variety of sensors, including depth cameras, a solid state gyro (IMU) and proprioception sensors in the limbs. These sensors help with navigation and mobile manipulation. SpotMini performs some tasks autonomously, but often uses a human for high-level guidance. For more information about SpotMini, visit www.BostonDynamics.com

Atlas, le nouveau robot humanoïde de Boston Dynamics

source: ce site internet

Boston Dynamics présente Atlas, une nouvelle génération de robot humanoïde. Atlas est capable de se déplacer debout sur deux jambes en terrain accidenté. De faire un travail de manutention en déplaçant des cartons. Et il est capable également de se relever. Dans la vidéo, un homme va le pousser pour le faire tomber et le robot va se relever comme un grand. Atlas est alimenté par une batterie. Il utilise plusieurs capteurs dans son corps et ses jambes pour rester en équilibre. Il a des capteurs stéréo dans sa tête pour éviter les obstacles et l’aider à manipuler les objets. Cette version d’Atlas fait 1m75 et pèse 82 kg.