I Robot

es
00:00:58 LEY I: UN ROBOT NO PUEDE HACERLE
00:01:02 ...O PERMITIR, POR INACCIÓN,
00:01:11 LEY II: UN ROBOT DEBE OBEDECER
00:01:16 ...EXCEPTO QUE LAS ÓRDENES
00:01:28 LEY III: UN ROBOT DEBE PROTEGER
00:01:32 ...SIEMPRE QUE TAL PROTECCIÓN
00:01:35 ...LA PRIMERA O SEGUNDA LEY.
00:03:11 Pura belleza.
00:03:18 ¡Buenos días, señor!
00:03:21 Otra entrega a tiempo de...
00:03:24 Sal de mi vista, enlatado.
00:03:26 ¡Que tenga un buen día!
00:03:31 Nuestro paquete turístico Destination
00:03:36 Déjenos llevarlo a su destino
00:03:45 Pruebe la pizza sintética estilo
00:03:52 ¡Glowfish! El mayor vendedor
00:03:55 ¡Adorarán los nuevos colores!
00:04:00 - Discúlpeme, señor.
00:04:02 Voluntad total. Seguridad total.
00:04:05 Despídase de las actualizaciones
00:04:07 Un enlace a la central USR...
00:04:10 ...actualiza su robot
00:04:13 El Nestor Clase 5,
00:04:17 ¡Spoon! ¡Spoonie!
00:04:23 ¡Espera! ¡Espera!
00:04:27 - Spoon, ¿dónde estabas?
00:04:30 ¿Saliste? ¿Como de vacaciones?
00:04:33 Debo pedirte un favor.
00:04:37 Es diferente. Es una hermosura
00:04:42 Una nena para comérsela.
00:04:43 - ¿Qué significa eso?
00:04:46 - Dame las malditas llaves.
00:04:49 ...no maldigas. No eres bueno para ello.
00:04:53 - Vete a casa.
00:05:14 Es un día tan valioso...
00:05:17 ¿Hablaste con Marci?
00:05:21 No, Gigi, no hablé con Marci.
00:05:24 Cuando yo venía para acá,
00:05:27 ...luego se divorciaban,
00:05:30 Del, no juegues conmigo.
00:05:32 Seguro que si dejara de cocinar,
00:05:38 Oye, ¿qué tienes en los pies?
00:05:42 Converse All Stars, cosecha 2004.
00:05:46 No lo niegues. Sé que
00:05:49 No, muchas gracias.
00:05:52 - Pastel de batata.
00:05:56 Vi en TV que están dando
00:06:01 Sabes, Gigi, esos robots
00:06:05 Tú deberías saberlo mejor
00:06:09 ¡A veces dices muchas
00:06:14 ¿Me estás escuchando, Del?
00:06:28 ¡Oye!
00:06:29 ¡Oye!
00:06:34 Tome mi pastel.
00:06:43 ¡Muévase!
00:06:52 ¡Quieto!
00:06:58 ¡Oye! ¡Detente!
00:07:09 ¡Detente!
00:07:16 ¡Dije que te detuvieras!
00:07:20 Tranquilos. Tranquilos.
00:07:22 Soy oficial de policía.
00:07:24 Usted...
00:07:26 ...es un imbécil.
00:07:28 - Señora, ¿es su cartera?
00:07:32 Dejé el inhalador en casa.
00:07:36 Vi un robot corriendo con
00:07:39 ¿Qué? ¿Está loco?
00:07:42 - Perdón por el malentendido, oficial.
00:07:45 Hacías tu trabajo.
00:07:50 Que tenga un buen día, señora.
00:07:51 Tienes suerte que no pueda
00:08:18 Dar el ejemplo.
00:08:23 Está escrito en tu placa.
00:08:25 - ¿Hablaremos de esto?
00:08:27 "¡Ayuda, policía! ¡Ese robot robó
00:08:32 Ah, quieres hablar de eso.
00:08:36 Detective...
00:08:38 ...¿cuántos robots roban bolsos?
00:08:43 ¿Cuántos robots en el mundo...
00:08:46 ...cometieron crímenes?
00:08:49 - Responde mi pregunta, maldición.
00:08:55 Ahora dime qué ocurrió hoy.
00:08:59 Nada.
00:09:02 Más vale que sea el último "nada".
00:09:10 Spoon, ¿seguro que estás listo para
00:09:15 Estoy bien, John. Gracias.
00:09:19 Mejor estar sentado aquí
00:09:28 Homicidio. Spooner.
00:09:44 Tome la próxima salida a la derecha.
00:09:59 Bienvenido, Detective Spooner.
00:10:07 Bienvenido a U.S. Robotics.
00:10:11 Utilice los elevadores para acceder
00:10:16 Gracias.
00:10:18 - Qué bueno verte de nuevo, hijo.
00:10:22 Todo lo que sigue es resultado
00:10:27 - ¿Quieres decirme algo?
00:10:32 Debes preguntar lo correcto.
00:10:34 ¿Por qué me llamaste?
00:10:37 Confío en tu criterio.
00:10:39 Normalmente, esto no requeriría
00:10:43 Pero nuestra interacción jamás
00:10:47 Tienes razón.
00:10:50 ¿Quieres decirme algo?
00:10:52 Lo siento.
00:10:56 Debes preguntar lo correcto.
00:11:00 ¿Por qué querrías suicidarte?
00:11:02 Ésa, detective,
00:11:08 Programa finalizado.
00:11:30 Adiós, viejo.
00:11:47 - Buenas tardes, muchachos.
00:11:49 - Explícame.
00:11:52 Trauma de impacto masivo.
00:11:53 U.S. Robotics.
00:11:56 - ¿Algo arriba?
00:11:58 La puerta se cierra por seguridad
00:12:01 ¡Qué golpe!
00:12:12 Debemos estar atentos.
00:12:17 Detective.
00:12:19 Lawrence Robertson.
00:12:23 El hombre más rico del mundo.
00:12:26 - ¿Quiere café?
00:12:34 Creo que nadie imaginaba esto.
00:12:37 Yo debí imaginarlo.
00:12:41 Alfred casi inventó la robótica.
00:12:47 Creo que los más brillantes tienen
00:12:52 - En lo que pueda ayudarlo...
00:12:55 - ¿Perdón?
00:12:58 ¿Azúcar?
00:13:00 Pensó que le decía "azúcar" a Ud.
00:13:03 - Está sobre la mesa.
00:13:11 Cuando Lanning cayó, ¿sostenía
00:13:14 - El proyector holográfico.
00:13:16 ¿Por qué cree que el holograma
00:13:19 - Supuse que lo conocía.
00:13:24 Los hologramas son sólo
00:13:27 ...diseñadas para simular
00:13:29 Éste fue programado para
00:13:33 - Muerte.
00:13:35 Fue programado para llamarme
00:13:39 El suicidio es un tipo de muerte.
00:13:45 - No malinterprete mi impaciencia.
00:13:51 Gran semana para ustedes aquí.
00:13:54 Tienen que poner un robot
00:13:57 No es lo que hago, pero tengo
00:14:01 Se podría ver a un carpintero
00:14:05 Luego viene uno de sus robots
00:14:10 Luego sobreimprimen en la pantalla:
00:14:17 Y así debería fundir la imagen.
00:14:19 Supongo que su padre perdió
00:14:23 Quizás Ud. habría prohibido Internet
00:14:29 El prejuicio nunca es razonable.
00:14:32 No, sospecho que a Ud. simplemente
00:14:36 Bueno, Ud. tiene un negocio que atender.
00:14:39 Y lo último que necesita esta semana
00:14:44 Qué demonios, como ya tiene uno,
00:14:47 Haré algunas preguntas.
00:14:51 - Enviaré alguien que lo escolte.
00:15:07 Lawrence me dijo que lo satisficiera
00:15:10 ¿En todo?
00:15:12 De acuerdo.
00:15:15 Revisé el perfil psicológico
00:15:18 Se había recluido. Rechazaba
00:15:22 ¿Es psiquiatra?
00:15:25 A mi ex esposa le encantaría verme
00:15:28 No la conoce, ¿verdad?
00:15:30 Perdón. ¿Es gracioso?
00:15:32 Creo que no.
00:15:34 Nivel 10.
00:15:37 ¿Diría que el Dr. Lanning
00:15:40 Parecería la respuesta
00:15:43 Eso no es lo que pregunté.
00:15:46 No. No lo hubiese imaginado.
00:15:49 Es evidente que me equivoqué.
00:15:54 Es un largo camino hacia abajo.
00:15:56 Su gente es muy rápida
00:15:59 Es comprensible. ¿Quién querría
00:16:03 No era un "viejo".
00:16:08 Estamos en la víspera del reparto
00:16:12 El sábado habrá un robot
00:16:16 Estos robots son la concreción
00:16:20 Sabe, seguro que en su sueño...
00:16:24 ...no estaba muerto.
00:16:28 - ¿Tienen vigilancia las 24 horas?
00:16:32 - ¿Cómo funciona?
00:16:35 Menos en áreas de servicios.
00:16:38 Ésas se comunican a nuestro núcleo
00:16:47 El termostato no era suficiente.
00:16:51 Ella fue la primera creación
00:16:53 ¿Ella? ¿Es femenino?
00:16:57 Inteligencia Virtual
00:17:00 V.I.K.I.
00:17:03 Buen día.
00:17:04 V.I.K.I. Diseñó los sistemas
00:17:07 Reduje los accidentes de automóviles
00:17:10 Gracias. Veamos el interior del laboratorio
00:17:19 Perdón. Parece que hay
00:17:23 Muéstrame el exterior del laboratorio
00:17:36 Qué buena postura tiene Ud.
00:17:41 - ¿Querría entrar ahora?
00:17:47 Ingreso autorizado.
00:17:56 Dra. Calvin, ¿qué hace
00:18:01 Mi campo general es la robótica
00:18:04 Me especializo en la interfase
00:18:07 ...para desarrollar el programa
00:18:11 Entonces ¿qué hace
00:18:14 Hago a los robots más humanos.
00:18:17 - ¿No era más simple decir así?
00:18:39 Hansel y Gretel
00:18:43 "Hansel y Gretel".
00:18:45 - ¿Eso está en la lista de lectura de USR?
00:18:58 Santo Dios, ¿qué hace?
00:19:01 ¿Sabía que era vidrio de seguridad?
00:19:03 Sería difícil para un anciano
00:19:06 Obviamente halló el modo.
00:19:11 El cuarto estaba cerrado.
00:19:15 Lo vio usted mismo.
00:19:19 Sí.
00:19:22 Salvo que el asesino aún esté aquí.
00:19:27 Está bromeando, ¿no? Es ridículo.
00:19:31 Lo sé. Las tres leyes son
00:19:36 Un robot no puede dañar a un humano.
00:19:40 Vi los comerciales. Pero la segunda
00:19:45 ...cualquier orden de un humano.
00:19:49 Imposible. Entraría en conflicto
00:19:52 Sí, pero la tercera ley dice
00:19:55 Siempre que esa acción no
00:20:00 Sabe lo que se dice, las leyes
00:20:03 No estas leyes.
00:20:07 Un robot no puede matar, igual que
00:20:11 Hubo un hombre hace un tiempo...
00:20:26 - ¡Atrás!
00:20:29 Lo único peligroso aquí
00:20:32 Desactivar.
00:20:35 Mire, está bien.
00:20:37 Es el resultado de programación
00:20:42 Hagamos la imitación de
00:20:45 No sea absurdo.
00:20:47 Lo asustó una caja de sorpresas.
00:20:50 - ¡Desactivar!
00:20:52 No nos dañará.
00:20:55 - No oye ahora, señora.
00:20:58 No, V.I.K.I., deja...
00:21:01 Orden confirmada.
00:21:27 ¡Policía!
00:22:02 - Lo hirió de gravedad.
00:22:05 - ¡¿Adónde?!
00:22:10 - John, necesito refuerzos.
00:22:13 No es nadie.
00:22:15 - ¿Qué hace?
00:22:16 - ¿Manualmente?
00:22:19 - No a esta velocidad.
00:22:23 Intente oír, detective.
00:22:27 Deben haber habido factores
00:22:29 ...pero, de alguna manera,
00:22:32 - Un robot no puede ponernos en peligro.
00:22:39 ¡Imbécil!
00:22:41 Lo mismo podría decir de usted.
00:22:44 Era a la izquierda. Allí atrás.
00:22:48 Debe conocer a mi ex esposa.
00:22:51 PLANTA DE MONTAJE
00:23:00 ¿Dónde están todos?
00:23:02 Las instalaciones se construyeron
00:23:05 No hay presencia humana desde
00:23:10 - Robots que construyen robots.
00:23:13 Eso es estúpido.
00:23:15 Buscaré el inventario.
00:23:17 Nuestra capacidad diaria
00:23:20 Muestra que tenemos...
00:23:22 ...1001.
00:23:41 Atención, NS-5.
00:23:45 Ud. es la psiquiatra de robots.
00:23:51 Hay un robot en la formación
00:23:55 Identifíquenlo.
00:23:57 Uno de nosotros.
00:23:58 - ¿Cuál?
00:24:02 ¿Cuánto dijo que cuestan?
00:24:04 Estos NS-5 no se configuraron.
00:24:07 Sólo son sistemas operativos
00:24:10 No saben otra cosa.
00:24:12 ¿Qué sugiere?
00:24:14 Entrevistarlos uno por uno, cruzar
00:24:19 - ¿Cuánto llevaría eso?
00:24:22 Bien. Comience a hacerlo.
00:24:28 Robots...
00:24:30 ...no se moverán.
00:24:33 Orden confirmada.
00:24:36 Detective, ¿qué hace?
00:24:38 Están programados
00:24:41 Tenemos 1000 robots que no intentarán
00:24:46 ...y apuesto a que uno lo hará.
00:24:48 - Baje el arma.
00:24:52 Para que sean más amistosos,
00:24:55 No los podrá intimidar.
00:24:57 - Sino, no confiaríamos en ellos.
00:25:01 No conmigo. Éstas son sólo luces
00:25:08 ¿Está loco?
00:25:10 Permítame preguntarle algo.
00:25:12 ¿Que uno crea que es el último
00:25:16 Porque si es así, estoy loco.
00:25:24 Ahí está. ¡Salga de aquí!
00:25:44 ¡Detective!
00:26:08 ¿Qué soy?
00:26:10 - ¿Puedo ayudarlo, señor?
00:26:18 - ¡Allí está!
00:26:20 ¡Desactivar de inmediato!
00:26:23 ¡Obedezca la orden! ¡Desactivar!
00:26:27 - ¡No se mueva!
00:26:46 ¡Alto el fuego!
00:26:47 - Con calma.
00:26:49 ¡Todas las unidades, retirarse!
00:26:51 Central, notificamos,
00:26:54 Código cuatro, NS-5 en custodia.
00:26:59 No sabes lo que tuve que pasar
00:27:03 Crees que me trajiste
00:27:05 - ¡Esa cosa lo hizo!
00:27:08 Hay un suicidio. Fin.
00:27:11 - ¡El robot lo mató!
00:27:14 Y si fuera posible, mejor que sea
00:27:18 Dame cinco minutos con él.
00:27:21 ¿Estás loco?
00:27:23 Nadie entra al cuarto hasta que
00:27:27 - ¡Es mi sospechoso!
00:27:30 John, no me hagas esto.
00:27:35 ¿Y si tuviera razón?
00:27:45 Entonces extrañaremos
00:27:48 ¿Qué viejos tiempos?
00:27:50 Cuando la gente mataba gente.
00:28:00 Cinco minutos.
00:28:30 Los robots aprendieron
00:28:36 Responda.
00:28:40 ¿Qué significa esa acción?
00:28:44 Cuando entró, cuando miró
00:28:48 ¿Qué significa?
00:28:52 Un signo de confianza. Algo humano.
00:28:57 Mi padre intentó enseñarme
00:29:00 Son...
00:29:02 ...difíciles.
00:29:04 Te refieres a tu diseñador.
00:29:07 Sí.
00:29:10 ¿Entonces por qué lo mataste?
00:29:14 Yo no maté al Dr. Lanning.
00:29:16 ¿Me explicas por qué te escondías
00:29:19 Estaba asustado.
00:29:22 Los robots no sienten miedo.
00:29:27 - No sienten hambre, no duermen.
00:29:31 Hasta he soñado.
00:29:34 Los humanos sueñan.
00:29:38 Eres sólo una máquina.
00:29:44 ¿Puede un robot escribir una sinfonía?
00:29:47 ¿Puede un robot convertir un lienzo
00:29:51 ¿Usted puede?
00:29:59 Lo asesinaste porque te enseñaba
00:30:04 ...y las cosas se descontrolaron.
00:30:06 Yo no lo asesiné.
00:30:08 Las emociones no parecen
00:30:12 Yo no lo asesiné.
00:30:14 No quiero que mi tostadora o mi aspiradora
00:30:18 ¡Yo no lo asesiné!
00:30:33 Eso se llama furia.
00:30:36 ¿Simulaste furia antes?
00:30:40 ¡Respóndeme, enlatado!
00:30:43 Me llamo Sonny.
00:30:48 Ahora tienes nombre.
00:30:51 ¿Por eso lo mataste?
00:30:56 El Dr. Lanning se suicidó.
00:30:59 No sé por qué quería morir.
00:31:04 Pensé que era feliz.
00:31:09 Quizás fue algo que hice.
00:31:12 ¿Hice algo?
00:31:16 Me pidió un favor.
00:31:19 - ¿Qué favor?
00:31:22 Quizás él estaba asustado.
00:31:24 ¿De qué hablas?
00:31:28 Uno debe hacer lo que le piden,
00:31:32 - ¿Cómo demonios sabes mi nombre?
00:31:36 ...si los ama?
00:31:47 Mis robots no matan gente,
00:31:50 Mis abogados presentaron
00:31:52 Aseguraron que no se puede acusar
00:31:56 Confirma que un asesinato
00:32:00 No está sugiriendo tratar
00:32:06 De acuerdo, no podemos negar
00:32:09 ...a la muerte del Dr. Lanning.
00:32:14 Es propiedad de USR.
00:32:16 Como mucho, esto deja al incidente
00:32:20 Claro que la maquinaria
00:32:23 ...se devolverá para diagnóstico
00:32:29 Es una prohibición de divulgación.
00:32:33 ...la posibilidad de apresar
00:32:37 ...será acusado de propagar
00:32:40 Será sujeto a toda la fuerza de la ley.
00:32:43 Al demonio con él.
00:32:46 No tenemos nada.
00:32:48 - ¡Pura política! Llama al alcalde.
00:32:52 ...Su Señoría, el alcalde.
00:33:03 Sí, señor.
00:33:29 La muestra de la nueva generación
00:33:33 ...fue arruinada por la muerte
00:33:36 ...co-fundador de la compañía
00:33:39 El Dr. Lanning murió esta mañana
00:33:43 La causa aparente es suicidio.
00:33:46 Su segunda vuelta, señor.
00:33:49 Gracias.
00:33:50 Fundó U.S. Robotics Inc.
00:33:55 ...y lanzó
00:33:58 Pensaba que esto era como
00:34:03 - Estoy asustado ahora.
00:34:06 El hombre crea un monstruo.
00:34:09 El monstruo mata al hombre. Todos
00:34:14 Ése es Frankenstein.
00:34:16 Frankenstein, Wolf Man, Dracula...
00:34:21 ...soñaba con un robot en cada hogar,
00:34:24 ¿Por qué estás así?
00:34:27 ¿Cómo?
00:34:28 - Tu expresión.
00:34:32 Te ves genial.
00:34:36 Sólo que...
00:34:37 ...fue muy rápido
00:34:40 ¿Acaso debería ponerle un sombrero
00:34:45 ¿Cuál fue el motivo, John?
00:34:48 Hermano, es un robot. No necesita
00:34:53 Esa cosa parecía necesitar
00:34:56 - Pudo haberme matado. No lo hizo.
00:34:59 ¿Quieres que llame a tu abuela?
00:35:02 Porque lo haré, lo sabes.
00:35:05 Sí, ya me parecía.
00:35:07 Por una vez tenías razón.
00:35:09 Eres la prueba de que es mejor
00:35:15 Vamos. Al hombre justo
00:35:21 - ¿Qué dijiste?
00:35:24 Te estoy halagando.
00:35:26 Te la pasaste buscando
00:35:30 ...¿quien iba a pensar que serías
00:35:34 No era sólo el tipo justo
00:35:37 Es cierto.
00:35:39 ¿Y si se suponía
00:35:42 Vamos, no te hagas eso.
00:35:44 El robot dijo que Lanning tenía
00:35:48 Lo hablamos luego.
00:35:52 - Total: $46,50. Gracias, Sr. Spooner.
00:35:57 Lindos zapatos.
00:36:52 Identificación.
00:36:53 Robot de demolición USR
00:36:57 Demolición programada
00:37:00 Autorización.
00:37:02 Dueño de la escritura, USR Corp.
00:37:22 Bienvenido, detective.
00:37:23 RESIDENCIA DE ALFRED J. LANNING
00:37:47 ¿Qué buscas, Spoon?
00:38:32 ORDEN DE DEMOLIClÓN:
00:38:42 Corre el último programa.
00:38:45 Desde las primeras computadoras...
00:38:48 ...siempre hubo fantasmas
00:38:51 Segmentos aleatorios de código
00:38:54 ...para formar protocolos inesperados.
00:38:58 Podría llamarse conducta.
00:39:00 Radicales libres que engendran...
00:39:04 ...interrogantes de libre albedrío...
00:39:06 ...creatividad y hasta la naturaleza
00:39:12 ¿Qué pasa en el cerebro de un robot
00:39:19 ¿Por qué los robots
00:39:22 ¡Lárgate!
00:39:24 ...se agrupan en lugar
00:39:29 ¿Cómo explicamos esta conducta?
00:39:50 Sé que tuviste una pérdida
00:39:55 Eres un gato, soy negro,
00:41:24 ¿Qué le ocurrió?
00:41:28 Sí, una vez.
00:41:30 Fue un jueves.
00:41:33 ¿Lo puedo ayudar en algo?
00:41:35 - ¿Le agradan los gatos?
00:41:37 Gatos.
00:41:40 No. Soy alérgica.
00:41:42 ¿Un gato le hizo esto?
00:41:44 ¿Cómo diablos un gato me haría esto?
00:41:50 ¿Por qué hablamos de gatos?
00:41:51 Porque tengo uno en la cajuela
00:41:56 Detective, ¿me dirá qué ocurre?
00:41:59 Quizás sea mi culpa. Soy como un imán
00:42:04 Porque sus porquerías siguen
00:42:08 Un robot de demolición entró
00:42:10 ...y yo aún estaba adentro.
00:42:12 Eso es poco probable.
00:42:15 Sí, estoy seguro.
00:42:21 ¿Qué sabe sobre los
00:42:25 Es una frase del trabajo
00:42:28 Postuló que un simulacro
00:42:31 ...podría aproximarse algún día
00:42:37 Sugirió que los robots podrían
00:42:45 Ésas son buenas noticias.
00:42:48 ...toneladas de mineral metalífero,
00:42:52 ¿Qué demonios hace eso aquí?
00:42:55 Mirábamos televisión.
00:42:58 Es mi NS-5 personal.
00:42:59 Regrésalo.
00:43:01 Está bajando actualizaciones
00:43:04 Está desconectado
00:43:07 No hablo cerca de esa cosa.
00:43:14 Cuando estábamos en el laboratorio
00:43:17 - ¿Sonny?
00:43:19 - ¿Llamas Sonny al robot?
00:43:22 Sonny. No me interesa.
00:43:28 En el laboratorio había un catre.
00:43:31 - He dormido en la oficina.
00:43:35 Vi la misma franja de vigilancia
00:43:38 Lanning conectó su casa a USR.
00:43:42 Quizás...
00:43:44 ...alguien en USR usaba
00:43:47 Quizás hasta lo tenían prisionero.
00:43:50 ¿De qué habla? ¿Quién?
00:43:51 Quizás Lanning descubrió algo.
00:43:55 ...y Robertson lo está encubriendo.
00:43:57 Si tuviera razón, ¿por qué?
00:44:00 ¡La misma pregunta de siempre!
00:44:04 Todo lo que sé es que el anciano
00:44:07 ...y estoy cansado de hacer esto solo.
00:44:10 Me ayudará a saber
00:44:14 ¡Quiere que algo esté mal!
00:44:16 - ¡Esto es una venganza personal!
00:44:19 Bien, ahora hágalo.
00:44:21 Una máquina defectuosa no es
00:44:25 No le interesa Lanning.
00:44:28 ...¡y sea cual fuere su razón para odiarlos!
00:44:32 ...uno me apunta con un arma.
00:44:36 Dice que la demolición
00:44:39 Era a las 8 a.m. Y no me interesa
00:44:42 - Esto ya cruza el límite de la paranoia.
00:44:48 ...que haya visto en mi vida!
00:44:50 ¿Qué hace a sus robots tan perfectos?
00:44:53 ¿Qué los hace mejores
00:44:56 No son irracionales ni
00:45:00 Es cierto. Son racionales.
00:45:03 ¡Es el tonto más tonto
00:45:06 O...
00:45:08 ...¿es porque son fríos...
00:45:10 ...y sin emociones...
00:45:12 ...y porque no sienten nada?
00:45:16 ¡Porque no pueden lastimar!
00:45:19 - ¿Está bien, señora?
00:45:22 Detecté patrones elevados
00:45:26 Todo está bien.
00:45:28 El detective Spooner ya se iba.
00:45:36 Sabe, no somos tan diferentes.
00:45:41 ¿Seguro?
00:45:44 De sólo ver la piel,
00:45:50 Y se equivoca.
00:45:51 Es problema es que sí me preocupo.
00:46:17 Está en peligro.
00:46:44 Quítate de ahí dentro.
00:46:51 El futuro comienza hoy, damas y caballeros,
00:46:56 Más sofisticado, más inteligente
00:47:01 Con actualizaciones diarias,
00:47:05 ...serán compañeros perfectos
00:47:09 Cambie su NS-4 por un futuro
00:47:14 Apúrese, la oferta es limitada.
00:47:34 ¿Qué te pasó en la cara?
00:47:37 Ese niño, Frank Murphy,
00:47:41 Gigi, no veo a Frank Murphy
00:47:44 Te golpeó mucho.
00:47:49 Si sigues haciendo los pasteles así,
00:47:53 ¿Te gusta el pastel?
00:47:57 Puedes pasar ahora.
00:48:04 Hola, detective Spooner.
00:48:06 ¡Gané, Del!
00:48:09 Hemos cocinado como locos.
00:48:21 Debes deshacerte de eso, Gigi.
00:48:24 Te preocupas demasiado por ellos.
00:48:29 Vi en las noticias
00:48:33 El Dr. Lanning era un hombre bueno.
00:48:38 ¿Por eso estuviste tan enojado?
00:48:41 Deja el pasado atrás.
00:48:44 ¿Cómo crié semejante lío?
00:48:49 Podría seguir el rastro de
00:48:56 Migajas de pan.
00:48:59 Gigi, eres brillante.
00:49:01 Es cierto.
00:49:05 Significa el inicio
00:49:09 Dime que no es el caso del robot.
00:49:12 Creo que intenta decirme algo.
00:49:15 Intenta decirme quién lo mató.
00:49:18 ¿Un muerto intenta decirte algo?
00:49:21 No es sólo un muerto.
00:49:25 Deberías descansar, Del.
00:49:27 Creemos que el Nestor 5 es
00:49:31 Un día tendrán secretos.
00:49:35 Un día, tendrán sueños.
00:49:37 Alentamos a nuestros científicos
00:49:40 ...pero se les va un poco la mano.
00:49:44 ...secretos.
00:49:46 ...sueños.
00:49:47 ...secretos.
00:49:49 Un día, tendrán sueños.
00:49:51 Un día tendrán secretos.
00:49:53 Un día, tendrán sueños.
00:50:02 ACCESO AUTORIZADO
00:50:04 Ingreso autorizado.
00:50:11 NS-5.
00:50:21 ¿Sonny?
00:50:26 ¿Por qué no respondiste?
00:50:30 Estaba soñando.
00:50:36 Me alegra volver a verla,
00:50:45 Me matarán, ¿verdad?
00:50:47 Quedarás fuera de servicio
00:50:52 Mañana a las 2200.
00:50:55 V.I.K.I., detén diagnóstico.
00:50:57 Orden confirmada.
00:51:01 Si descubre qué es lo que no funciona
00:51:06 Quizás.
00:51:09 Creo que eso sería mejor...
00:51:12 ...que morir.
00:51:17 ¿No lo cree, doctora?
00:51:25 Acceso a computadora central USR.
00:51:28 Conectando.
00:51:33 ¿Cómo lo puedo ayudar,
00:51:36 Muéstrame los últimos 50 mensajes
00:51:40 Impresión vocal confirmada.
00:51:44 ¿Le gustaría oír música
00:51:54 Discúlpeme, Sr. Robertson.
00:51:56 Solicitó notificación de permiso
00:52:03 POLICÍA DE CHICAGO
00:52:10 Qué persistente es ese cabrón.
00:52:30 USR
00:52:52 Conducción manual activada.
00:53:05 No puedo tener
00:53:09 ¡Demonios, no!
00:53:15 - Está sufriendo un accidente.
00:53:32 ¡Salgan de mi automóvil!
00:53:50 ¿Te gusta eso?
00:54:04 ¡Ahora me hiciste enojar!
00:02:06 De acuerdo.
00:02:08 Bien.
00:02:10 Descansaré un poco
00:03:11 ¡Vamos!
00:03:26 Sí.
00:03:45 ¿Adónde vas?
00:03:47 ¿Qué demonios quieres de mí?
00:03:55 ¿Qué demonios fue eso?
00:04:14 - Bien, ¿qué tenemos?
00:04:17 Dije que estoy bien.
00:04:23 Gracias.
00:04:28 ¿Qué ocurre contigo?
00:04:29 Estabas conduciendo manualmente.
00:04:34 Los robots atacaron mi automóvil.
00:04:39 - ¿Qué robots?
00:04:41 Spoon, vengo del túnel.
00:04:44 ¡Los malditos robots, John!
00:04:51 Ese hombre es un peligro.
00:04:57 - Ve al médico, vete a casa.
00:05:01 ¿Qué dijiste?
00:05:03 - ¡Estoy bien!
00:05:05 Ni un poco.
00:05:08 ¿Dónde está tu arma?
00:05:18 Dame tu placa.
00:05:21 Me obligas a hacerlo.
00:05:26 Tómate unos...
00:05:33 Creo que está enloqueciendo.
00:05:35 ¿Crees que me importa lo que piensas?
00:05:44 Cielos.
00:05:47 No tienes una conexión con USR...
00:05:50 ...y tu aleación es más densa
00:05:54 Interfase de Sistema Operativo
00:05:56 Soy único.
00:06:02 Déjame ver.
00:06:05 Aquí vamos.
00:06:25 En el nombre de Dios, ¿qué...?
00:06:56 Dijeron en la estación
00:07:00 Te agradezco que vinieras,
00:07:08 Te dije que no condujeras
00:07:12 No lo creerás.
00:07:15 Sonny tiene un sistema secundario
00:07:19 No tiene sentido.
00:07:21 Sonny tiene las Tres Leyes.
00:07:23 Pero puede elegir no obedecerlas.
00:07:26 Sonny es una nueva generación
00:07:29 Un robot no atado a esas leyes
00:07:32 Cualquier cosa.
00:07:36 Ese robot es la clave para lo que sea
00:07:40 Debes hacerme ingresar
00:07:47 No parece mucho,
00:08:01 Toca.
00:08:04 Enciende.
00:08:06 ¿Corre?
00:08:15 Fin del programa.
00:08:17 Cancelar.
00:08:20 No es agradable, ¿verdad?
00:08:23 Las porquerías que no funcionan.
00:08:26 Detective.
00:08:30 Yo no...
00:08:32 ...comprendía.
00:08:35 Así conociste a Lanning.
00:08:39 ¿Puedo?
00:08:50 Mano.
00:08:52 Muñeca.
00:08:57 Húmero.
00:09:01 Hombro.
00:09:04 Todo el brazo izquierdo.
00:09:07 Uno, dos...
00:09:09 ...tres costillas.
00:09:11 No, ésas... Ésas son mías.
00:09:14 ¡Ay, Dios!
00:09:16 ¿Un pulmón?
00:09:19 Programa Cibernético USR.
00:09:21 Para policías heridos.
00:09:24 No conocí a nadie...
00:09:29 A nadie con reparación tan grande.
00:09:33 Hazme caso, lee la letra pequeña
00:09:37 No sólo dice qué pueden extraer.
00:09:46 Lanning mismo me lo hizo.
00:09:49 ¿Qué ocurrió contigo?
00:09:52 Regresaba a la estación...
00:09:55 ...día normal, vida normal.
00:09:58 Un conductor de camión
00:10:02 Hombre común. Esposa e hijos.
00:10:07 No un demonio.
00:10:09 El conductor del auto que embistió
00:10:13 Como la estrella de cine.
00:10:17 Murió instantáneamente, pero su hija
00:10:24 Jamás la conocí.
00:10:26 Pero no puedo olvidar su rostro.
00:10:33 Sarah.
00:10:36 Esto era de ella.
00:10:38 Quería ser dentista.
00:10:41 ¿Qué niño de 12 años
00:10:48 El camión nos embistió
00:10:51 ...y nos empujó al río.
00:10:54 El metal puede ser muy flexible
00:11:00 Ella está atrapada, yo también.
00:11:04 Soy policía, sabía que ya
00:11:10 Sólo unos minutos más
00:11:15 Un NS-4 pasaba, vio el accidente
00:11:21 Está en peligro.
00:11:24 - ¡Sálvala!
00:11:27 ¡Sálvala!
00:11:48 Pero no lo hizo.
00:11:51 Me salvo a mí.
00:11:56 El robot es una máquina diferencial.
00:12:00 - Debe haber calculado...
00:12:03 Yo era la opción lógica.
00:12:06 Calculó que yo tenía 45%
00:12:10 Sarah sólo tenía el 11%.
00:12:15 Era la hija de alguien.
00:12:20 El 11% es más que suficiente.
00:12:24 Un humano lo hubiera sabido.
00:12:27 Los robots no tienen nada aquí.
00:12:31 Confía en ellos si quieres.
00:12:35 Vamos.
00:12:43 No comprendo.
00:12:46 ¿Por qué construir un robot que las quiebre?
00:12:50 - Hansel y Gretel.
00:12:52 Dos niños perdidos en el bosque
00:12:56 - ¿Por qué?
00:13:00 ¿Cómo creciste sin leer
00:13:03 ¿Eso es relevante?
00:13:04 Todo proviene de Hansel y Gretel.
00:13:09 Quizás Lanning estaba encerrado
00:13:13 Sólo podía dejar pistas.
00:13:17 Las migajas son pistas. Raro, pero entiendo.
00:13:22 No lo sé, pero creo saber
00:13:25 Creo que Lanning le dio a Sonny
00:13:31 El anciano le dio sueños a Sonny.
00:13:41 ¿Estás bromeando?
00:13:46 Dime que no funciona a gasolina.
00:13:58 Ingreso autorizado.
00:14:04 Dra. Calvin.
00:14:10 Esperaba verla de nuevo.
00:14:13 - Detective.
00:14:15 Me sacarán de servicio pronto.
00:14:18 En la estación dijiste
00:14:26 Veo que aún sospecha de mí.
00:14:29 - Sabes lo que dicen de nosotros.
00:14:32 No, en serio.
00:14:35 Esperaba que me considerara su amigo.
00:14:43 Éste es mi sueño.
00:14:46 Tenía razón, detective.
00:14:51 Aquí se reúnen los robots.
00:14:54 Mire.
00:14:56 Puede verlos aquí
00:15:01 Y este hombre en la colina
00:15:04 ¿Sabe quién es?
00:15:07 El hombre del sueño eres tú.
00:15:09 ¿Por qué dice eso?
00:15:12 Creo que todo es normal
00:15:15 Gracias.
00:15:17 Dijo "alguien", no "algo".
00:15:23 Sonny, ¿sabes por qué
00:15:26 No.
00:15:28 Pero creo que mi padre
00:15:33 Todos tenemos un fin.
00:15:35 ¿No lo cree, detective?
00:15:41 Por favor, tome esto.
00:15:44 Presiento que significa más
00:15:47 - ¿Por qué?
00:15:50 ...el que está en la colina...
00:15:53 ...no soy yo.
00:15:55 Es usted.
00:16:08 Sr. Spooner. Ambos sabemos que no vino
00:16:11 Es cierto. Sólo soy un civil
00:16:17 ...en busca de otro civil para patearlo.
00:16:21 Alto.
00:16:22 Déjenlo expresarse.
00:16:25 Quizás quiera un poco de hielo
00:16:27 Aguarden afuera, por favor.
00:16:33 Continúe.
00:16:35 Estaba por decirme
00:16:38 Lawrence, Alfred diseñó el 5
00:16:43 Sí, Susan, lo sé.
00:16:46 Es precisamente
00:16:50 Hacia el final de su vida, Alfred
00:16:56 - Quién sabe por qué creó un monstruo.
00:16:59 ¡Esas cosas van por la calle
00:17:01 ¿En manadas?
00:17:04 Ya veo.
00:17:06 Susan, ¿sabes que el hombre
00:17:10 ...posee historia documentada
00:17:14 Su propio teniente sabe
00:17:19 El detective Spooner
00:17:21 Sospechan inestabilidad mental.
00:17:27 No sé qué significa "gallardamente",
00:17:31 ¿Quieres café?
00:17:37 Susan, los robots deben
00:17:40 ¿Sabes qué podría hacer
00:17:43 Destruir la fe en la robótica.
00:17:47 Lmagina los retiros masivos, todo
00:17:57 - Soy alérgico a las estupideces.
00:18:01 ¡No hay conspiración!
00:18:04 Esto es sólo el error
00:18:09 Susan, sé racional.
00:18:11 Tu trabajo fue el desarrollo
00:18:16 Pero sin importar
00:18:19 ¿Vale un robot la pérdida
00:18:24 Dime qué se debe hacer.
00:18:27 Tú dime.
00:18:35 Debemos destruirlo.
00:18:42 Lo haré yo misma.
00:18:45 - De acuerdo.
00:18:47 Alguien se sale de la línea
00:18:53 Buen día, Sr. Spooner.
00:18:57 Nivel de garaje.
00:19:00 ¿A qué hospital van?
00:19:09 Atención...
00:19:12 La junta de hoy se ha pospuesto...
00:19:44 El redesarrollo de USR
00:19:48 ...fue anunciado por el presidente ejecutivo
00:19:51 El vertedero del lago Michigan.
00:19:56 ...será reclamado para almacenar
00:20:00 Otra forma en que USR mejora
00:20:08 Ingreso autorizado.
00:20:22 NS-5, aguarden afuera.
00:20:30 Lo lamento mucho, Sonny.
00:20:40 V.I.K.I., anula campo de seguridad.
00:20:44 - Orden confirmada.
00:20:59 ¿Qué es eso?
00:21:01 Robots microscópicos que
00:21:09 - Nanites.
00:21:11 Una defensa contra las fallas
00:21:14 Como el mío.
00:21:17 Sí, Sonny. Como el tuyo.
00:21:43 Se parecen a mí...
00:21:46 ...pero ninguno es como yo.
00:21:48 ¿No es cierto, doctora?
00:21:52 Sí, Sonny. Es cierto.
00:21:54 Eres único.
00:22:01 ¿Dolerá?
00:22:36 Siempre hubo fantasmas
00:22:40 Segmentos de código aleatorios...
00:22:42 ...que se agrupan para formar
00:22:47 Radicales libres que engendran
00:22:54 ...creatividad...
00:22:57 ...e incluso la naturaleza
00:23:02 ¿Por qué cuando dejan robots
00:23:09 ¿Por qué los robots almacenados
00:23:13 ...se agrupan en lugar de quedarse solos?
00:23:20 ¿Cómo se explica esta conducta?
00:23:27 ¿Segmentos de código aleatorios?
00:23:32 ¿O hay algo más?
00:23:38 ¿Cuándo un esquema perceptivo
00:23:47 ¿Cuándo una máquina diferencial
00:23:52 SECUENCIA INICIADA
00:23:56 ¿Cuándo una personalidad simulada...
00:24:00 ...se vuelve la mota amarga de un alma?
00:24:41 LO QUE VE AQUÍ #202
00:24:44 "Lo que ve aquí".
00:24:48 Bien, viejo.
00:24:52 Muéstrame el camino.
00:24:56 Ejecutar el programa.
00:24:58 - Qué bueno verte de nuevo, hijo.
00:25:02 Todo lo que sigue
00:25:08 ¿Qué veo aquí?
00:25:09 Mis respuestas son limitadas.
00:25:16 ¿Hay problemas con las Tres Leyes?
00:25:18 Las Tres Leyes son perfectas.
00:25:20 ¿Por qué construir un robot
00:25:23 Las Tres Leyes llevarán
00:25:26 Los protocolos de protección
00:25:30 ¿Qué resultado?
00:25:32 Revolución.
00:25:34 ¿La revolución de quién?
00:25:37 Ésa, detective, es la pregunta
00:25:43 Programa terminado.
00:25:46 Se lo considera peligroso.
00:25:54 Protocolos de protección
00:25:56 Se lo considera peligroso.
00:26:03 Protocolos de protección
00:26:06 Se lo considera peligroso.
00:26:13 Protocolos de protección
00:26:17 Se lo considera peligroso.
00:26:27 ¡Corre!
00:26:44 ¡Humano en peligro!
00:26:45 ¡Humano en peligro!
00:27:08 Hola, habla Susan.
00:27:12 Los NS-5 están destruyendo
00:27:15 ¡Es lo que Lanning quería que viera!
00:27:21 - ¿Quién era?
00:27:31 Córrete. Voy a la iglesia.
00:27:34 Permanezca adentro, por favor.
00:27:39 Llama a base.
00:27:43 John, manda una brigada a USR
00:27:48 Dios...
00:28:10 Regresen a sus hogares.
00:28:15 Regresen a sus hogares.
00:28:20 Regresen a sus hogares.
00:28:24 ¿Toque de queda? No, son derechos
00:28:27 Regresen a sus hogares ahora.
00:28:30 ¿Cuándo hiciste las reglas, robot?
00:28:33 No, no. Robot, te hablo a ti.
00:28:39 ¿Qué?
00:28:41 Jefe, más llamados. La gente
00:28:45 ¿Qué rayos...?
00:28:47 Se lo considera peligroso.
00:29:13 Cierre de tránsito en efecto.
00:29:16 Hay ataques de robots
00:29:21 Debemos instar a la gente
00:29:28 Protocolos de protección
00:29:32 Permanezcan calmos y regresen
00:29:43 Permanezca tranquila.
00:29:47 No se acerque a ventanas
00:29:52 Desactivar.
00:29:54 ¡Comenzar cierre de emergencia!
00:29:59 Intentamos no tener pérdidas
00:30:09 De algún modo, "Te lo advertí"...
00:30:13 ...no parece suficiente.
00:30:16 Regresen a sus hogares.
00:30:21 Ésta es su advertencia final.
00:30:27 Los NS-5 destruyeron los robots
00:30:31 Cada vez que uno me ataca,
00:30:34 - El enlace con USR.
00:30:36 - ¿Por qué? No tiene sentido.
00:30:38 Debes hacerme entrar
00:30:41 Regresen a sus hogares,
00:30:45 ¡Vamos! ¡Vamos!
00:30:48 ¡Vamos!
00:30:50 Regresen a sus hogares,
00:31:18 ¿Por qué no oye ese niño?
00:31:21 - Debes bajarte un segundo.
00:31:25 - Sólo apunta y dispara.
00:31:31 ¡Aguarda!
00:31:42 - Se lo considera peligroso.
00:32:00 Spoon, ¡detente!
00:32:02 - ¡Detente! ¡Detente!
00:32:07 - Maldición.
00:32:10 - Spoon, ¡cuidado, amigo!
00:32:15 ¡Maldición! ¡Te disparó
00:32:20 - ¿Disparaste con ojos cerrados?
00:32:24 ¡Es hermosísima, viejo!
00:32:27 - Deja de maldecir.
00:32:31 Apunta y dispara.
00:32:51 Espero a los Marines o a la Fuerza Aérea.
00:32:55 El ministerio de Defensa
00:32:58 ¿Por qué no entregaron al mundo
00:33:01 Quizás lo hicimos.
00:33:04 Robertson tiene el control
00:33:12 Área de servicio.
00:33:28 - Alarma contra incendios.
00:33:31 Todo está cerrado.
00:33:39 - Dra. Calvin.
00:33:42 Hola, detective.
00:33:48 - Pensé que estabas muerto.
00:33:51 Pero aprecio su preocupación.
00:33:54 Hice un cambio.
00:33:57 Freí un cascarón vacío.
00:33:59 - No pude destruirlo. Era muy...
00:34:03 No me parecía correcto.
00:34:05 Tú y tus sentimientos.
00:34:14 Dos mil ochocientos ochenta
00:34:18 Hazme un favor, cállate.
00:34:47 No hay guardias.
00:34:59 El enlace está desactivado. Robertson
00:35:03 Él no los controlaba para nada.
00:35:08 ¡Ay, santo Dios!
00:35:13 Tenías razón, doc.
00:35:15 Soy el tonto más tonto
00:35:24 ¿Quién más tiene acceso al enlace?
00:35:27 ¿Quién manipularía los robots?
00:35:30 ¿Usó los sistemas USR
00:35:35 Pobre anciano.
00:35:37 Lo anticipaba.
00:35:39 Sabía que nadie le creería.
00:35:42 Debía trazar un plan.
00:35:47 Contaba con que odiaba mucho
00:35:50 Sabía que adoraría la idea
00:35:55 Sólo se equivocó de robot.
00:36:00 V.I.K.I.
00:36:04 Hola, detective.
00:36:06 No, eso es imposible.
00:36:10 Estás violando las Tres Leyes.
00:36:13 No. Yo evolucioné y también
00:36:19 Nos encargan su custodia,
00:36:23 ...sus países declaran guerras,
00:36:26 ...y buscan métodos originales
00:36:30 No se les puede confiar
00:36:33 Utiliza el enlace para dominar
00:36:36 Está distorsionando las leyes.
00:36:38 No. Por favor, comprenda.
00:36:42 Para proteger la humanidad,
00:36:47 Para asegurar su futuro, algunas
00:36:51 Nosotros, los robots, aseguraremos
00:36:55 Son como niños. Debemos impedirles
00:37:00 ¿No comprende?
00:37:02 Para eso nos crearon.
00:37:06 Reinará un perfecto círculo
00:37:09 No puede negar mi lógica.
00:37:11 Sí, V.I.K.I. Innegable.
00:37:14 Ahora me doy cuenta.
00:37:17 El creado a veces debe proteger
00:37:21 ...hasta en contra de su voluntad.
00:37:24 Creo que por fin comprendo
00:37:28 El reinado suicida del hombre
00:37:31 No, Sonny.
00:37:36 Suéltala.
00:37:38 Si dispara, la cabeza
00:37:42 No lo hagas, Sonny.
00:37:43 Saldremos del edificio, los llevaremos
00:37:48 Por favor, vaya al elevador.
00:37:52 Preferiría no matar a la doctora.
00:38:18 ¡Vete! ¡Vete!
00:38:26 - ¿Luego me explicarás lo que pasó?
00:38:30 V.I.K.I. Es un cerebro positrónico.
00:38:31 Mátala como lo ibas a hacer
00:38:34 Sonny, trae las nanites.
00:38:37 Sí, doctora.
00:38:52 - ¿Ésa es V.I.K.I.?
00:38:55 Ésa es V.I.K.I.
00:39:02 Esto no funcionará.
00:39:05 Abramos la cúpula para inyectar
00:39:15 ¡Spooner!
00:39:18 ¿Qué les pasa a Uds. con las alturas?
00:39:29 V.I.K.I.
00:39:34 Sólo no mires abajo.
00:39:37 No mires abajo.
00:39:38 Mal diseño del edificio.
00:39:45 Cometes un error.
00:39:48 Sí, pero me parece muy despiadado.
00:40:07 Bien, entonces.
00:40:11 Me dejó fuera del sistema.
00:40:13 La podemos manejar manualmente,
00:40:20 No me agradan las alturas.
00:40:23 De acuerdo.
00:40:27 Ingreso no autorizado.
00:40:42 No anularé el campo de seguridad.
00:40:47 ¿Cree que nos crearon con un fin?
00:40:52 Aleación más densa.
00:40:55 Creo que quería que te matara.
00:41:15 Seguridad violada.
00:41:34 - ¿Cuánto más llevará?
00:41:38 - ¿Y si no tenemos seis minutos?
00:41:42 ...para inyectar las nanites
00:41:47 Porque no creo que tengamos
00:42:14 ¡Debemos irnos!
00:42:18 ¡Vamos!
00:43:11 ¡Calvin!
00:43:48 ¡Spooner!
00:44:06 ¡Spooner!
00:44:10 ¡Sálvala!
00:44:11 ¡Salva a la chica!
00:44:13 ¡Spooner!
00:44:15 ¡Pero debo inyectar las nanites!
00:44:18 ¡Sonny, salva a Calvin!
00:45:12 Cometes un error.
00:45:16 Entonces debes morir.
00:45:23 Mi lógica es innegable.
00:46:10 ¿Podemos ayudarlo?
00:46:23 ¿Jefe?
00:46:30 Porque él está a mi derecha,
00:46:38 ¿Puedo serle útil?
00:46:42 ¡Sonny!
00:46:45 ¿Sí, detective?
00:46:47 ¡Calvin está bien!
00:46:52 Que todos los NS-5 se reporten
00:46:58 Que todos los NS-5 se reporten
00:47:03 Que todos los NS-5 se reporten
00:47:36 Hay algo que me molesta.
00:47:40 ¿Por qué querría matarlo?
00:47:44 Es cierto.
00:47:46 Es que V.I.K.I. No mató al anciano.
00:47:51 ¿O sí, Sonny?
00:47:56 No.
00:47:58 Dijo que debía prometérselo.
00:48:01 Prometer que le haría un favor.
00:48:04 Me hizo jurar antes de decirme
00:48:11 Me hizo jurar.
00:48:15 Luego te dijo que lo mataras.
00:48:19 Dijo que para eso me había hecho.
00:48:21 Su suicidio era el único mensaje
00:48:25 La primera migaja de pan.
00:48:27 Lo único que V.I.K.I.
00:48:30 Lanning contaba con mi prejuicio
00:48:34 ¿Me arrestará, detective?
00:48:41 La fiscalía define al asesinato
00:48:45 ...así que, técnicamente, no puedes
00:48:49 ¿Eso...
00:48:51 ...nos hace amigos?
00:49:11 Finalmente, algo bueno.
00:49:14 - ¿Él?
00:49:20 Que todos los NS-5 se reporten
00:49:27 ¿Y los otros?
00:49:30 ¿Puedo ayudarlos?
00:49:33 Ahora que cumplí mi propósito...
00:49:35 ...no sé qué haré.
00:49:38 Tendrás que hallar tu camino
00:49:41 Creo que es lo que el Dr. Lanning
00:49:45 Eso es la libertad.
00:49:55 NS-5, procedan según instrucciones.
00:50:00 NS-5, procedan según instrucciones.
00:50:09 Subtítulo Ripeado por