¿Y donde estan las leyes 2 y 3 de Asimov?
Ley 2: Un robot debe obedecer las órdenes dadas por los seres humanos...
Ley 3: Un robot debe proteger su propia existencia...

Me parecen mas importantes que muchas de la UE.

Noto que parece haber ninguna jerarquia entre esas leyes ¿pues en caso de conflicto entre dos leyes, que ocurrira? Dr. Asimov, necesitamos su ayuda...

Se podria añadir unas criticas mas:

1. En caso de rebeldia, una de las primeras cosas que podria hacer un robot sera de desconectar su interruptor ¿no? ¿Pues de que servira ese interruptor? Solo de hacerle perder unos minutos...

2. Y si un robot se encuentra con un terrorista amenazando centenas de personas ¿no podria ese robot someterle? ... ¿incluido rompiendole un brazo?

3. Ya hay gente que tienes vinculo emocional con su coche...

4. Tienes razon, un robotito volante (digamos como libelula) podria estrellarse sobre un coche y estrellar su parabrisas y causar un accidente... Es ese caso ¿no seria una buena option que tenga el robotito un seguro? Ademas, si se mantiene esa idea de tamaño ¿cual sera el limite? ¿Un kilogramo o cincuenta kilogramos? ¿63.48 centimetros o 84.16 centimetros?

5. ¡Derechos y obligaciones ya son un problema para los Humanos! ¿Tendran mas derechos y obligaciones que los animales? Estoy riendome porque los perros tiendos la obligacion de defecar en la alcanterilla, pero no lo hacen... y no les ponemos en prision... Obligaciones van con consciencia, sino es nada mas que programacion.

6. Hace unas decadas que digo que hay que cobrar a los proprietarios de robots industriales un impuesto para compensar el desempleo causado por ellos... Y para las computadoras profesionales tambien. Antes de la informatica, habian decenas de secretarias y dactylografias en los bancos y redacciones de periodicos...