Finance & Money Management">
Foro Deep Learning
Foro Deep Learning
Foro Deep Learning
portal inmobiliario
VANESSA DE ARRIBA LÓPEZ (jun 13, 2019 9:31 AM) - Leído por: 35
Marcar como leído Responder
Por una parte, como empleada de un portal web inmobiliario, un primer
ejemplo claro de aplicación en el que utilizaría un algoritmo de machine
learning sería usar las imágenes para clasificar las casas según su tipo y/o si
tienen por ejemplo piscina, jardín etc. Esto se realizaría con una red CNN y
utilizando aprendizaje supervisado, con fotos de casas previamente
etiquetadas. A su vez, se podría también realizar un procesamiento del texto
que ha introducido el usuario que desea vender su casa, del cual se puedan
extraer palabras clave para rellenar campos.
Otra aplicación interesante sería, teniendo en cuenta todos los datos que ha
introducido el usuario, localización de la vivienda, si se encuentran servicios
cerca de ella etc. poder predecir si el precio de esa vivienda es adecuado para
sus características, e incluso, para algún comprador que esté interesado en
cierta vivienda, poder avisarle si el precio es negociable.
También sería interesante implementar un sistema de recomendación de
viviendas, que, basado en los datos de las viviendas ya vistas y/o marcadas
como favoritas, sea capaz de extraer las características que deseamos para
nuestra vivienda y, a partir de esto, pueda recomendarnos viviendas que nos
puedan interesar. Muchas de estas ideas están posiblemente ya
implementadas en los portales mencionados.
En idealista he observado que en algunas viviendas contienen un tour 3D por
la casa; una implementación que sería muy interesante sería tener la
posibilidad de ver dicha casa en 3D sin los muebles e, incluso, a partir de los
planos y nuestros gustos decorativos y entrenando un modelo con imágenes
de muchas formas de decoración que existen y que contenga una base de
datos de muebles, teniendo en cuenta el espacio de cada una de las
habitaciones de la casa que sea capaz de optimizar el espacio, combinar
colores, formas etc. o basarse en alguna casa en concreto para realizar la
decoración de interiores y así poder ser capaces de ver la “vivienda a nuestro
gusto” antes de adquirirla.
Un saludo,
Vanessa
Nuevo Re: Ideas sobre posibles implementaciones de algoritmos de machine
learning en un portal inmobiliario
ARITZ BERAZA GARAYALDE (jun 13, 2019 10:47 AM) - Leído por: 26
Marcar como leído Responder
Quizás uno de los problemas de comprar vivienda es que normalmente en el centro de las
ciudades ya no es posible o la oferta es muy escasa. Comprarla en la periferia o en zonas
de nueva construcción es jugar a la ruleta rusa. Sin embargo se podrían usar modelos
deep learning que estudiasen tweets por hashtags sobre locales y actividades de los
vecindarios para saber qué barrios atraen a más gente y por tanto es de esperar que el
precio de la vivienda en esos barrios aumente (y sea una buena inversión). (Tweets o
cualquier otra actividad georreferenciable, uso de apps de running, peticiones y destinos
de uber, etc).
Además, usando algún sistema de clustering como k-means podríamos crear perfiles del
tipo de vecindario. Es decir, si la mayoría de la actividad es de gente sobre los 25 años y
hablan de bares y terrazas, recomendaremos ese barrio a jóvenes estudiantes, si el perfil
predominante es de personas de 50 años hablando sobre golf, estamos en un barrio
residencial de clase media-alta. (Usando tópicos para los perfiles para hacerme entender
mejor).
Otras mejoras sería dar información veraz sobre la accesibilidad real a servicios:
estudiando las lineas de transporte público, orografía, situación del inmueble y de los
servicios en los alrededores podría dar una valoración sobre cuan accesibles están.
Siendo una medida objetiva en lugar de tener que fiarse de la información poco veraz
que el anunciante añade al respecto. De forma inversa, podría usarse el mismo modelo
para dados unos puntos de interés (posición del trabajo, colegio y casa de los suegros) y
unas distancias máximas en tiempo (30minutos, 10 minutos 24horas, respectivamente) te
recomendase e inmuebles.
Entrando en el análisis del anuncio en si mismo. Robots podrían analizar el contenido del
texto y recomendar modificaciones para orientar el anuncio mejor a un público objetivo.
LSTM + Sensing orientado a un perfil de cliente.
Y algo que ya hacen los portales como predecir variaciones de precio de la vivienda por
regiones a partir del registro de precios del propio portal. Podrían enriquecerse los
modelos con más variables como la ya mencionada cercanía a servicios e inlcuso
incorporar planes urbanísticos en la zona.
Aplicaría un algoritmo de machine learning para los datos de clientes con información de
lo que buscan. Creando redes que den las mejores probabilidades de lo que los clientes
buscan ademas de aprender gustos y aspectos que atraen a los clientes: como ubicación,
gustos en colores, cantidad de cuartos que buscan, número de familiares que se
encuentran en busca de una inmobiliaria.
Me gusta como suena todo. En España cuentan con base de datos libres a usar para
analizar esto?
Lo consulto mas por la ley Europea GDPR, y levantar toda esta data para entrenar
modelos sería bastante costoso.
Ordenación de resultados
Clasificación de imágenes
Detección de fraudes
Match de vivienda - cliente
Busqueda de posibles clientes (esto es un poco eutopía con la nueva ley)
Elaborando sobre la idea de la transferencia de estilo de una vivienda a otra, sería muy
interesante poder ver mis muebles, cuadros y adornos en el espacio de otra vivienda que
me interese adquirir o alquilar. Generalmente esto requeriría de un entrenamiento con las
fotos propias que uno elige de su hogar o espacio. Eso permitiría encontrarse en esa
nueva vivienda con las pertenencias de uno y evaluar de una manera rápida si el color o
tamaño de mis muebles va con el espacio propuesto. Por que no y dirigir dentro del
"proyecto" de alquiler o compra dentro de la misma web a elegir nuevos
muebles/adornos que estén en venta (y con precio ajustado/descuento) a la medida para
el nuevo hogar, similares a los identificados en el hogar original, pero más orientados a
las tendencias identificadas en la clasificación socio demográfica del cliente, esta
información sería extrapolada de los valores incluidos en la ficha de registro del usuario.
Nuevo Re: Ideas sobre posibles implementaciones de algoritmos de machine
learning en un portal inmobiliario
JORGE ENRIQUE VICENTE HERNÁNDEZ (jun 20, 2019 12:45 AM) - Leído por: 22
Marcar como leído Responder
Se podrá responder algunas preguntas de:cuando una casa se pondrá en venta, en que
zona y cuanto tiempo demorará en venderse.
SAludos!
Excelentes ideas Vanessa. Solo con desarrollar una de las ideas seguro que sería un gran
éxito. Creo que lo más costoso sería crear los datos de entrenamiento, es decir, clasificar
las imágenes, etc. Pero adelante. Veo que tienes mucha iniciativa!! :)
Uno de los aspectos que me parece muy interesante conocer por parte de un usuario en
un portal inmobiliario, es si se puede permitir la casa que está mirando. Es decir, que le
indique si un banco le daría la hipoteca que necesita para esa casa en concreto.
Para ello necesitaríamos una tasación real del inmueble en base a la zona, condiciones,
etc. teniendo en cuenta como lo hace un verdadero profesional. Por lo tanto debemos
indicarle al usuario la tasación real que tendrá en cuenta el banco.
Por otro lado necesitaremos datos personales del usuario como salario, tipo de
contratación laboral, otros préstamos, etc. y en base a toda esta información deberíamos
ser capaces de indicarle las posibilidades de que un banco le realice la hipoteca necesaria
para ese inmueble.
Debemos de hacernos con una gran base de datos capaz de indicarnos si el usuario es
apto para el préstamo que necesita, indicándonos qué porcentaje de dinero debe tener
ahorrado, cuanto se gastará en gastos hipotecarios, todos los tipos de hipotecas, etc.
Nuestra red neuronal debería de ser de tipo supervisado, para ello necesitaríamos bases
de datos con préstamos bancarios reales para entrenar nuestro modelo, y a partir de ellos
indicar los datos de nuestro usuario actual e indicarle sus posibilidades.
Saludos.
Teniendo en cuenta el problema planteado se me ocurren las siguientes ideas que podrían
ser implementadas con nuestra amada IA:
Utilizar la Inteligencia Artificial Deep Learning Para Empresas en un tema que en los
últimos años se ha venido evolucionando de tal forma que se pueden utilizar los
conjuntos de datos recolectados de los clientes para buscar patrones o similitudes que nos
puedan ayudar en la tomas de decisiones.
Los diferentes algoritmos pueden ser entrenados con loas datos que se han obtenido y
guardado de los clientes para que nuestro programa pueda aprender y por consiguiente
poder tomar decisiones de la misma forma como lo haría un ser humano.
En lo que respecta al tema empresarial la inteligencia artificial esta puede ser utilizada
para detectar patrones de comportamiento que sirven para la toma de decisiones mas
eficientes.
Para este caso los datos recolectados, depurados y debidamente clasificados son los
ingredientes claves y que pueden ayudarnos a que nuestro algoritmo puede trabajar con
mas eficiencia y rapidez.
Aunque algunas veces se dice que el origen y el formato de los datos no es relevante
debido a que el aprendizaje profundo debe ser capaz de asimilar una gran diversidad de
datos el depurar estos pude ser muy útil a la hora de hacer el uso de estos.
Creo que para el caso inmobiliarios se puede usar la Inteligencia artificial para detectar
comportamientos del mercado en cuanto a los precios del mercado y poder hacer
proyecciones futuras en cuanto a estrategias de mercadeo. Esto puede facilitar la labor de
los vendedores y analistas de mercado por lo que puede ahorrar tiempo y dinero.
Foro 2
Uno de los campos en los que más trabajo actualmente es la Realidad Aumentada. Como
muchos sabréis, la realidad aumentada pretende solapar información sintética sobre nuestra
visión de la realidad, de forma que pueda asistirnos en nuestras acciones diarias o tareas
laborales.
- Dispositivos como Hololens o Magic Leap que además de lo anterior, son capaces de
reconocer en 3D el entorno y realmente superponer información sintética sobre la visión
real del usuario, en perfecta alineación (realidad aumentada en estado puro).
- Otro uso que nos despierta gran interés es la utilización de estos dispositivos con gente
con discapacidad (diversidad funcional). Ante cualquier problema sensorial, la utilización
de estas smartglasses com cámara, altavoz y micrófono puede convertirse en un ‘nuevo’
sentido/s. Por ejemplo, el uso de ‘image captioning’ (como lo comentado por Alfredo en
una magistral) puede ser muy interesante en este contexto en ‘narrar’ lo que la cámara ve
por voz a gente con discapacidad visual.
Sobre las gafas, al ser estas pequeñas y no tener espacio para hardware, al final estas
están conectadas a internet (servidores) donde envían y reciben toda la información
procesada?
De ser el caso, con la pronta implementación del 5G considero que esto será una gran
revolución en el campo de la Realidad Aumentada.
Hay gafas con todo el hardware, por ejemplo las Vuzix, basadas en Android, al estilo
de las Google Glass... el problema es: procesamiento limitado, vida de batería
limitado, calentamiento excesivo.... pero van mejorando versión tras versión.
Pero sí, utilizamos muchos servicios Cloud desde las gafas, como IBM Watson,
Google Cloud, wit.ai para chatbots etc.
A pesar de que lo que se menciona en esta entrada está fuera del alcance propuesto para
este foro reconozco que se ha planteado con detalle y el tema es muy interesante.
El planteamiento logra ampliar las aplicaciones del aprendizaje profundo que hemos
visto en clase que dan la sensación de que estamos ante una nueva forma de hacer
computación.
Muy interesante, también estoy dentro del desarrollo de APPs móviles. Entiendo que la
computación necesaria para IA se haria en un SmartPhone no en la propia gafa
¿Correcto?.
No necesariamente. Gafas como las Vuzix M300 o Blade son completos dispositivos
Android y puedes hacer muchas cosas. Lo que sí gastamos muchas veces son servicios
cloud como IBM Watson, Google Cloud, wit.ai (chatbots) etc. para resolver problemas
de visón, speech recognition etc.
Son bastante interesantes las propuestas y en verdad es un tema que me interesa mucho.
Aproximadamente cuanto duran las baterías de las gafas de realidad
aumentada? Realmente aun se tienen muchas limitaciones técnicas en hardware como
para tener dispositivos comerciales con esas prestaciones, aunque no deja de ser
interesante. En los proximos años con las nuevas baterías de grafeno muchos problemas
con respecto a la portabilidad e independencia energética podrían ser solucionados.
Tienen una duración bastante limitada, pero con un complemento extra, una especie de
'petaca' que puedes ponerte en el cinturón (batería extra), puede aguantar una jornada
de trabajo (8 horas). Al menos es el caso de las que estamos probando ahora, las Vuzix
M300.
En el caso de user experience (UX), la realidad aumentada está cobrando una gran
importancia. Como sabemos muchos vehículos actualmente cuentan con HUD (Heads
Up Display) que no es más que un dispositivo que proyecta información importante en el
parabrisas del vehiculo, sin emabargo los OEM´s están apostando en la creación de
parabrisas que puedan mostrar más información y que sea de forma interactiva, por
ejemplo, la distancia entre tu vehículo y el vehículo de enfrente, o también información
sobre el lugar en el que te encuentras, echando mano de conexiones móbiles y el internet
de las cosas, aunado esto con el sistema de infotaiment del vehículo para darte una mejor
experiencia.
Me parece muy interesante la inmensa cantidad de posibilidades que nos puede brindar
estas tecnologías y más aun formar parte activa en la generación de las mismas.
Todas estas interacciones son registradas y procesadas con las tecnicas del aprendizaje
profundo para aportar descubrir maneras de como aprenden los individuos en cada una
de sus realidades.
Muy interesante el planteamiento. Otra área donde se puede utilizar realidad aumentada
ademas de las ya mencionadas es en el turismo, en este sentido las aplicaciones puede ir
desde realizar visitas virtuales a lugares pero poniendo énfasis en brindar información
preliminar no de sustituir la visita física de las personas o también se podría utilizar para
que existan diversos puntos de relevancia historia en la ciudad donde nuestro dispositivo
detecte via gps o usando algún tipo de codigo QR el lugar donde nos encontramos y nos
brinde información sobre el lugar.
Foro 3.
Nuevo Redes Neuronales Convolucionales aplicadas al Catastro
DAVID GARCIA RETUERTA (jun 15, 2019 3:02 PM) - Leído por: 21
Marcar como leído Responder
Sin más dilación, comparto un fragmento de un artículo que tengo por publicar en la
revista CT Catastro 2019. En él hablo de como es posible implementar Redes
Neuronales Convolucionales para realizar una categorización de las casa por tipologías
constructivas dentro del Catastro urbano. De forma básica, esto significa que ya sería
posible que los españoles pagásemos el IBI de nuestras viviendas a partir de una
clasificación realizada por ordenador (en lugar de una clasificación realizada por los
operarios del catastro como se hace actualmente). La principal ventaja de esta técnica es
la perdida de subjetividad del proceso, lo que conlleva una mayor fiabilidad.
NOTA: La versión beta de la que habla el artículo aun necesita verificación de las
predicciones por un operario.
Se podría aplicar tanto para verificar la clasificación de los operarios humanos, como
para mejorar su productividad. En el primero de los casos la máquina analizaría las
clasificaciones ya realizadas y aceptaría como buenas las que coincidan con la predicción.
Los casos que difieran deberán ser analizados por otro operario distinto del original para
obtener un veredicto definitivo. Esto puede ser muy útil a la hora de realizar un control de
calidad o de prevenir el fraude interno, pues permite centrarse en los casos anómalos antes
de realizar un análisis en profundidad. En el segundo caso, se les indicaría a cuáles
fotografías que deberían prestar más o menos atención. Las clasificaciones más fáciles
solo tendrían que aceptarlas, mientras que las más complicadas tendrían que examinarlas
con detalle. La carga de trabajo se vería disminuida considerablemente, siempre
manteniendo la calidad de la clasificación final.
Sería viable escalar el alcance del método propuesto. Con acceso a más imágenes
categorizadas es probable que con sigamos un mejor entrenamiento de la red neuronal,
con lo que mejorará el índice de acierto. Además, se podrían incluir todas las demás
tipologías para que el modelo fuera capaz de clasificar correctamente una imagen de
cualquier edificio que se le presente.
También es posible escalar la utilización del método. La mayoría de los procesos que
realiza son altamente paralelizables por lo que puede implementarse en un servidor para
una utilización a gran escala. El entrenamiento es el único proceso computacionalmente
costoso del programa, pero este solo ha de realizarse una vez.
PD: Se adjunta un esquema de la CNN utilizada.
schema.jpg
Tengo una curiosidad, distingues de carteles, pintadas, ventanas ... de la fachada en sí. Si
es así que mínimo de fachada necesitas para clasificar?
Tanto para el TFM como para las prácticas en empresa, he visto (y usado) autoencoders
para simplificar o convertir información visual (ya sea para clasifcación como para
extracción de atributos). Ha resultado especialmente útil para resolver el tratamiento de
la variabilidad de la imagen a causa de la perspectiva de la foto. Podría ser una etapa de
tratamiento a añadir para mejorar los resultados del sistema.
Foro 5.
Como añadido, los equipos analógicos no necesariamente tienen una respuesta inmediata,
ni responden de la misma forma a los cambios, haciendo que lo que podría ser una
desventaja, suponga un detalle característico e incluso artístico. Generalmente tienen un
retardo, dependiente de muchos factores, para cada entrada, y la forma en la que responden
a ello es parte del sonido característico. Por ello las funciones de impulso-respuesta
instantáneas no suelen generar el resultado esperado.
Es por ello que en mi caso imagino algún tipo de RNN, con una ventana suficientemente
grande como para capturar esos cambios en el tiempo y en el que la salida dependa de la
secuencia de últimos N samples.
Esto hace tiempo que se lleva intentando, y que yo conozca, no existe aun un plugin o
hardware concreto que lo haga, y que lo haga de esta forma, y obviamente, bien. Lo más
parecido, y de donde surgió la idea, es un amplificador que tiene ya algunos años (es por
ello que imagino que internamente no lo hace con RNN, aunque podría ser), y que por
suerte tengo y compré precisamente por lo innovador de la iniciativa. En este caso sirve
principalmente para amplificar guitarra y bajo, pero conseguir hacerlo por software y en un
ordenador, para usarlo como plugin en cualquier software de audio, y poder capturar
cualquier software analógico que se tenga, sería algo estupendo.
Se trata del Kemper Profiler Amplifier, y de hecho desde el primer día que modelé uno de
mis amplificadores con el, el proceso me pareció completamente similar al entrenamiento
de una red o un sistema de ML. Oficialmente no revelan cómo está hecho ni con qué
algorítmica (obvio), pero el resultado es muy bueno y ya se está convirtiendo en un
estándar en muchos ámbitos. La curiosidad, es que necesita que exista un amplificador
previo para poder modelarlo, por lo que en si no es un amplificador, sino un "copiador".
https://www.youtube.com/watch?v=dYgOcPm-f1w
En el minuto 4:22 se puede ver el proceso por el que el profiler "aprende" el amplificador
enchufado. El amplificador original tiene un micrófono (o varios) para capturarlo, pasa a
través (generalmente) de una mesa o interfaz, y vuelve al profiler, siendo el profiler el
generador y destino del audio, por lo que entiendo que durante ese proceso es donde se
generaría el set de entrenamiento.
Se puede oír claramente como genera diferentes sonidos de todo tipo y extremos, para
poder tener un conjunto de entrenamiento suficientemente grande. Finalmente se usa la
propia guitarra que se pretende usar para tocar con el mismo, para terminar de hacer un
ajuste fino del modelo. Con este entrenamiento en dos fases entiendo que se pretende crear
un primer modelo en bruto del amplificador y luego ajustarlo a las características concretas
del instrumento con el que se usará.
Lo cierto es que tiene muchísimo más sentido lo que tú nos muestras: se aprende de las
señales originales como entradas al algoritmo, y este genera como resultado
configuraciones en los sets que se acerquen al máximo a estas.
De esta forma, no sólo se puede emular un modelo concreto de amplificador, sino que
incluso se modela el instrumento utilizado en el entrenamiento en función de la propia
personalidad del instrumento, y llegando incluso a tener en cuenta el tono concreto del
previo, lo que da una variabilidad inmensa, mejorando la experiencia del músico ante el
sistema simulado, llegando a darle algo prácticamente idéntico.
Claro, que los Kemper consiguen ya algo serio...
Si, de hecho todos los emuladores anteriores eran eso, emuladores, pero el Kemper ha
sido el primero que ha puesto en practica el tema de "aprender" un amplificador, y eso
ya empieza a tener visos de Machine Learning.
Como digo entiendo que por el tiempo que tiene no creo que sea exactamente esto lo
que haga, pero es un primer ejemplo que ya usa y genera un dataset de ejemplo, lo
aprende, y luego cuando pasa la señal genera la salida lo más parecida posible a la
original.
Foro 6.
Uno de los campos en los que el uso del aprendizaje profundo está ganando muchísimo
interés es en la medicina. Ya no sólo por su simple potencial para automatizar y simplificar
tareas sino también por las opciones que tiene de llegar a revolucionarlo, con tratamientos
más avanzados y personalizados a las necesidades del paciente. Personalmente, en el
desarrollo de mi TFM me he encontrado con soluciones bastante avanzadas para el
diagnóstico de múltiples enfermedades, como el Alzheimer [1], la retinopatía diabética [2],
y algunos tipos de cáncer como el de piel [3].
Algo que encuentro muy interesante en todo este tema es la cuestión de la confianza. En
qué momento un modelo de aprendizaje profundo se vuelve fiable para llevar a cabo tareas
tan sensibles, de las que depende la vida de las personas. Sin duda es un debate muy
importante, y está relacionado con el debate de los algoritmos de caja negra.
Referencias:
[1] Ding, Y., Sohn, J. H., Kawczynski, M. G., Trivedi, H., Harnish, R., Jenkins, N. W., …
others. (2018). A Deep learning model to predict a diagnosis of alzheimer disease by using
18F-FDG PET of the brain. Radiology, 290(2), 456–464.
[2] Gulshan, V., Peng, L., Coram, M., Stumpe, M. C., Wu, D., Narayanaswamy, A., …
Webster, D. R. (2016). Development and validation of a deep learning algorithm for
detection of diabetic retinopathy in retinal fundus photographs. JAMA - Journal of the
American Medical Association, 316(22), 2402–2410.
https://doi.org/10.1001/jama.2016.17216
[3] Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., & Thrun, S.
(2017). Dermatologist-level classification of skin cancer with deep neural networks.
Nature, 542(7639), 115. Retrieved from
https://www.nature.com/articles/nature21056.epdf?author_access_token=8oxIcYWf5UNrN
pHsUHd2StRgN0jAjWel9jnR3ZoTv0NXpMHRAJy8Qn10ys2O4tuPakXos4UhQAFZ750
CsBNMMsISFHIKinKDMKjShCpHIlYPYUHhNzkn6pSnOCt0Ftf6
Hola Óscar.
En este dominio, el problema no es cuán efectiva puede ser una técnica, sino que este
problema queda relegado a un segundo plano, a favor de la parte psicológica.
Aún hay que tener cuidado con respecto a la información que se publica en relación al
grado de autonomía que realmente hoy por hoy existe en el mundo de la aviación, y en
los problemas que evita, ya que la gente seguimos queriendo depender de un humano en
temas que pueden afectarnos de forma tan profunda.
Aquí opino lo que allí: el problema vuelve a ser social. El problema no es implícito a la
controlabilidad o explicabilidad interna de un modelo en sí, sino a la permisividad de
facto que la sociedad otorgue a intereses particulares como para que se aproveche de ello
y, arguyendo imposibilidades técnicas o usando la caja negra como barrera de
invisibilidad, se dañe al individuo en pos un beneficio propio.
Estoy de acuerdo con lo que comentas, y creo que es uno de los principales problemas
que tienen los algoritmos de caja negra. Si para nosotros, que lo hemos estudiado,
puede ser complicado entender las decisiones de una IA, para una persona sin
formación tecnológica ya es completamente imposible. Esto puede hacer que ciertos
particulares intenten aprovechar esta situación en favor de sus intereses propios.
Tratándose de la salud de las personas, el problema es aún más grave, y adoptar una
actitud como esa sería totalmente despreciable. Pero cosas peores se han visto.
Por otro lado, también habría que tener en cuenta que las decisiones de una IA sesgada
voluntariamente podrían no ser muy diferentes de las decisiones de un ser humano
sesgado. Por ejemplo, en el caso de la medicina, una IA podría negarle el tratamiento a
un anciano por ser muy caro y dar pocas probabilidades de supervivencia. Un humano
sesgado podría tomar esta misma decisión. En estos casos, en los que el
comportamiento "poco ético" es deliberado, el problema no es de la IA, sino del
interés humano, tal y como tú dices.
Pero no hay que olvidar el otro tipo de sesgo, el involuntario, resultado de la mala
calidad de los datos y otros factores. Sobre todo en aplicaciones tan sensibles como la
medicina.
Nuevo Re: Aplicaciones médicas
VÍCTOR PELIGRO ROSADO (jun 23, 2019 2:33 AM) - Leído por: 17
Marcar como leído Responder
Hola a todos,
Creo que uno de las principales ámbitos en los que pueden aplicarse los algoritmos
de inteligencia artificial es la medicina, tanto en lo referente al diagnóstico como en
la optimización de tratamientos individualizados para la dolencia específica de cada
enfermo.
En cualquier caso debemos tener en cuenta que un médico también puede cometer
errores ("errores humanos"), cuyas consecuencias pueden ser graves o incluso
trágicas, por lo que creo que un buen planteamiento dual máquina+médico puede
reforzar la confianza del paciente en el diagnóstico y tratamiento definitivos.
Creo realmente que la inteligencia artificial puede ayudar a reducir esa tasa de
errores de diagnóstico enormemente. Basta con buscar en Internet artículos sobre
aplicaciones de la IA a la medicina para comprobar la gran cantidad de
investigaciones que se están realizando en todo el mundo sobre este asunto, pues los
beneficios que pueden reportar a la sociedad pueden ser enormes.
Referencias:
[1] Lugo-Reyes, S. O., Maldonado-Colín, G., & Murata, C. (2014). Inteligencia
artificial para asistir el diagnóstico clínico en medicina. Revista Alergia
México, 61(2), 110-120.
Hola a todos,
Estoy de acuerdo con Victor, creo que aún no estamos listos mental ni
moralmente para sustituir un diagnostico de un especialista con muchos años de
experiencia por el de una IA, sin embargo, el apoyo de estas en la prevención y
apoyo en el tratamiento de enfermedades resulta supremamente útil, para mi TFM
estoy trabajando con una universidad la cual lleva varios años realizando
investigaciones en el área psicológica apoyándose con herramientas tecnológicas,
una de sus principales investigaciones es con niños que padecen de TDAH
(Síndrome de falta de atención e hiperactividad), crearon varios mini juegos los
cuales miden en función del tiempo varios parámetros, cuanto tarda el niño
responder a un estimulo, cuantos intentos realiza, impulsividad, etc, estos datos se
capturan adicionalmente con los obtenidos por 2 sensores mas, unas gafas de eye
tracking y un sensor neuronal, todos estos datos se están almacenando en una
base de datos en la nube, la idea de mi TFM es realizar una clasificación de estos
datos entrenando un modelo de IA con datos de niños con y sin el síndrome, que
permita identificar en niños no diagnosticados con TDAH que probabilidad
tienen de padecerlo.
Creo que la inteligencia artificial esta llevando la medicina a niveles mucho mas altos y a
mayor velocidad que en años anteriores y esta ayudando a los especialistas y científicos
con el diagnostico y medicación de muchas enfermedades y de hecho también el saber
los efectos secundarios a largo plazo de muchos de los fármacos que se utilizaban y
algunos que se utilizan en la actualidad.
Pero me surge la interrogante es que como estos algoritmos pueden ser muy fríos y dejar
de lado los sentimientos humanos y en un determinado caso como podrían reaccionar
ante alguna situación de emergencia.
Y mas aun en el caso de un error quien seria el responsable directo o indirecto de que una
persona pudiera quedar discapacitada o morir por malas decisiones tomadas en un
momento determinado quien seria el culpable en este caso?
En todo caso pienso que que aun quedan muchas interrogantes que resolver, pero esto no
va a detener los avances de la tecnología.
100% de acuerdo, Ángel: los problemas son más filosóficos y legales, que técnicos.
Aunque aún falte bastante técnica por depurar y descubrir, se alcanzará antes este
extremo, que los otros.
Un campo tan interesante como necesario. Actualmente hay 2 competiciones sobre casos
médicos en Kaggle que son bastante curiosos, uno de ellos para el problema que citas
sobre ´Retinopatía diabética´. He estado trasteando con el dataset de este último y da
mucho juego para aprender y probar cosillas. Viene con las imágenes médicas y el nivel
de afectación del paciente.
https://www.kaggle.com/c/aptos2019-blindness-detection
https://www.kaggle.com/c/siim-acr-pneumothorax-segmentation/data
Foro 7.
JOSÉ JAVIER LARA JIMÉNEZ(jun 18, 2019 12:06 PM)- Leído por: 16
Hola!
Aquí va mi propuesta para el foro. Espero que os entretenga, y os motive a participar.
Hay una parte de la sociedad que cumple varios de los criterios más importantes como para
suponer un negocio próspero, duradero, con vertiente de servicio social efectivo, y rentable; y
son nuestros ancianos. Y lo son, por lo siguiente:
Todo ello aprendiendo del propio individuo, su entorno, preferencias, y necesidades, y por
supuesto, con interacción constante en inmediata con cualquier otro agente requerido,
humano o no, como pueden ser avisos a familiares, facultativos, sistemas de seguridad, etc.,
bajo políticas de desencadenamiento de eventos basados en el entorno y la actividad.
Creo que es algo cuyos potenciales clientes podrían ser no sólo los ancianos, sino también
sus familiares, mediante la adquisición de servicios o funcionalidades, y también las
instituciones, tanto públicas como privadas, ya que al disponer de estos elementos aumentan
su atractivo de mercado y mejoran el servicio prestado.
Además, a priori supondría un uso bastante limpio y que genera un servicio real por el cual
pagar. Si bien las aplicaciones del deep learning al mundo del entretenimiento -videojuegos
no parecen adolecer de grandes problemas morales, no es así en su otro gran dominio oficial
de aplicación, el márketing, el cual se encuentra actualmente moral, social y hasta legalmente
bastante empantanado en relación a las bases que lo rigen, apoyadas, lamentablemente, en
un mercadeo bastante despreciable de información personal obtenida a través de unos
medios muy cuestionables.
Esto hace que a día de hoy, este uso del deep learning esté bastante denostado por parte de
sus potenciales usuarios finales, los cuales nos vemos en más ocasiones de las deseadas
acosados desde compañías que disponen de nuestra información de forma fraudulenta, y la
utilizan para prestarnos absolutamente ningún servicio.
Acabo de atender una llamada de Sanitas. Por favor, borre mis datos. En fin, lo mismo de
siempre...
Nuevo Re: Senescence 2.0
LUIS PAZ Y MIÑO ESPINOSA(jun 21, 2019 6:29 AM)- Leído por: 16
Hola Jose
Sabes que es un área que he venido leyendo y siguiendo de cerca y sería un gran
producto lo que propones, incluso yo me imagino llegar a esa edad y tener una asistente
como el planteado, o tener uno como la película ELLA.
Estas tú trabajando ya en algo parecido? lo pregunto porque incluso le has puesto
nombre
Hola Luis.
No, lamentablemente no estoy trabajando en ello. Nuestro ámbito está acotado a
soluciones tecnológicas para industria e ingeniería, por lo que todas las aplicaciones,
tanto de deep learning como de cualquier otra disciplina, se enmarcan necesariamente
ahí.
A veces uno echa en falta tener más tiempo para abordar más cosas...
Foro 8.
Actualmente, uno de los "hot topics" que circulan por la red son las famosas Deep Fakes. En
primera instancia, pueden parecer una de las muchas singularidades que podemos encontrar,
pero la realidad es bien distinta. De hecho, ha generado alarmismo en varios gobiernos y
servicios estatales de seguridad alrededor del mundo. Es inquietante que "de manera tan
secilla" se pueda difamar o malversar cierta información. Una de las publicaciones que más
impacto ha tenido en las últimas semanas es un Deep fake del fundador de Facebook, Mark
Zuckerberg:
En el video podemos ver cómo se ha manipulado la gesticulación facial y la apertura de la
boca, de tal manera que, se consigue un mapeo bastante realista con el audio falso. Si bien,
esta es una de las varias posibilidades, ya que, existen otro tipo de sistemas que ofrecen la
capacidad de intercambiar rostros de manera precisa o, en algunos casos, sintetizar voces de
personas reales.
La creciente oleada de este tipo de contenido se debe principalmente a los avances en Deep
Learning. La base de la generación de Deep fakes se sustenta en dos arquitecturas, las
Redes Generativas Adversarias (GANS) y los Autoencoders. No obstante, el gran
inconveniente que presentan hoy en día es que estas técnicas requieren de una cuantiosa
cantidad de instancias de entrenamiento para conseguir buenos resultados. Además, a pesar
de que en muchos casos no sean identificables a simple vista, presentan ciertas debilidades
en el mapeo local de ciertas regiones y en la secuenciación de gesticulaciones (pose,
apertura de la boca, parpadeo de los ojos, inconsistencias estructurales, ruido, etc.). En
consecuencia, una buena estrategia podría ser la aplicación de redes convolucionales
recurrentes. Por ello, inspirado en recientes trabajos dentro del ámbito, el objetivo principal de
mi TFM es la detección de falsificaciones profundas empleando estas técnicas.
Este tipo de sistemas podría tener aplicación en cualquier plataforma que permita
compartir contenido audiovisual. Incluso, se podría añadir al repertorio de herramientas de
verificación de la veracidad de pruebas en procedimientos legales. Evitar el mal uso de la
inteligencia artificial es una prioridad, en caso contrario, la repercusión que podría tener a
nivel social (manipulación de tendencias políticas, por ejemplo) es notable.
Por último, les comparto un pequeño repertorio de papers por si quereis indagar en el tema:
1. Li, Y., Chang, M.-C., & Lyu, S. (2018). In Ictu Oculi: Exposing AI Generated Fake Face
Videos by Detecting Eye Blinking. Retrieved from http://arxiv.org/abs/1806.02877
2. Guera, D., & Delp, E. J. (2018). Deepfake Video Detection Using Recurrent Neural
Networks. In 2018 15th IEEE International Conference on Advanced Video and Signal
Based Surveillance (AVSS) (pp. 1–6).
IEEE. https://doi.org/10.1109/AVSS.2018.8639163
3. Yang, X., Li, Y., & Lyu, S. (2018). Exposing Deep Fakes Using Inconsistent Head
Poses. Retrieved from http://arxiv.org/abs/1811.00661
4. Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J., & Nießner, M. (2019).
FaceForensics++: Learning to Detect Manipulated Facial Images. Retrieved
from http://arxiv.org/abs/1901.08971
5. Thies, J., Zollhöfer, M., Stamminger, M., Theobalt, C., & Nießner, M. (n.d.).
Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Retrieved
from https://web.stanford.edu/~zollhoef/papers/CVPR2016_Face2Face/paper.pdf
Es un tema apasionante, y de hecho yo creo que a la larga el propio Deep Learning puede
ser problema y solución, y puede darse el caso de que lo generado por una determinada
red sea evaluado por otra para comprobar su veracidad. Es algo complicado porque a
medida que pase el tiempo las falsificaciones serán mejores y las dificultades para la
evaluación crecerán, pero está claro que será necesario que se desarrollen elementos
automáticos de discriminación que permitan filtrar todo aquello que no cumpla con unos
requisitos de veracidad.
Probablemente ciertas características de los videos fake puedan ser aprendidas por estas
redes, y resolver el problema, al final todo será una competición de redes y sets de
entrenamiento. ¡Una temática muy interesante para tu TFM!.
Foro 9
Buenas,
Actualmente trabajo para una compañía multinacional cuya actividad se focaliza en el sector
eléctrico. En todos los países existe el denominado "código de red eléctrico" , que contiene
las directrices que deben cumplir las plantas generadoras de energía. Es decir, las plantas
generadoras tienen que adaptar su comportamiento en función de diferentes eventos y
circunstancias de la red eléctrica.
Los códigos de red suelen ser más exigentes en aquellos países con redes eléctricas débiles
o bien en países con un porcentaje elevado de energía renovable, que suele ser una fuente
muy variable por su fuerte dependencia de las condiciones meteorológicas (sol, viento).
Algunos de los requisitos principales que se exigen a estas plantas generadoras, de manera
muy resumida, son los siguientes:
- Respuesta en frecuencia: Aumentar o disminuir la generación en función de la frecuencia
de red
- Rampa de potencia activa: Aumento o decremento paulatino (en rampa) de la generación
para evitar transitorios abruptos en la red
-Regulación de tensión: Mediante la inyección de potencia reactiva (inductiva o capacitiva)
es posible controlar la tensión en el punto de conexión de la planta a la red, contribuyendo a
la estabilidad del sistema eléctrico. En algunos países en lugar de regular tensión se pide
regular el factor de potencia o directamente un determinado valor de reactiva.
Uno de los principales problemas con el que se encuentran los productores de energía es
saber si están cumpliendo el código de red, ya que reiterados incumplimientos pueden
involucrar sanciones o que la planta sea desconectada del sistema eléctrico por la autoridad
pertinente.El precio de la energía es elevado y estos problemas pueden provocar pérdidas
enormes, que dependiendo del tamaño de la planta y el tiempo de desconexión pueden
superar con creces varios millones de Euros.
Se me ocurre investigar sobre implementar redes neuronales recurrentes (RNN) para
determinar cuál debería ser el comportamiento de la planta en cada momento (generación de
potencia activa y reactiva). Propongo usar RNN ya que permiten almacenar un estado interno,
y el comportamiento de una planta de energía depende de las variables en un momento dado,
peor también del estado anterior (punto de funcionamiento anterior).
Por tanto mi propuesta sería entrenar una RNN de forma que las variables de entrada
(features) fueran la tensión y frecuencia de red, la potencia activa y reactiva en instantes
anteriores y otras condiciones (radiación solar y viento en caso de renovables). Las variables
de salida serían los valores de potencia activa y reactiva a generar en en momento actual en
cumplimiento del código de red (legislación).
No sé si esta aplicación será del interés de otros alumnos o profesores, pero lo veo una
aplicación muy interesante para mi actividad profesional en particular y también para poner
sobre la mesa aplicaciones complejas diferentes de las tradicionales relacionadas con
imágenes o el procesamiento del del lenguaje.
Hola Víctor.
Una aplicación perfecta, casi de manual. Datos perfectos recogidos por plcs, masivos a
más no poner, almacenados en entornos relativamente homogéneos.
Al tener límites reglados, se me ocurre que la estrategia de aprendizaje por refuerzo sería
muy apropiada, ya que dispones de una value function, y por extensión una Q-value
function muy directas, respecto a las que definir la política de recompensa.
Suena muy bien!
Foro 10
Es verdad que una de las aplicaciones más conocidas del aprendizaje profunda, es
la recomendación de productos, servicios o contenido. Pero ¿por qué esta aplicación no
pasa de moda?
Creo que primero debemos entender que el objetivo de cualquier empresa es ganar dinero, y
por ende le interesa vender cada vez más sus productos o servicios. Es por ello que, dado
que siempre hay nuevas empresas, el objetivo siempre será el mismo "ganar más dinero" y
siempre tendremos a la mano una aplicación como esta para poder ayudar a generar nuevas
oportunidades.
Ahora me gustaría mencionar también un ejemplo que está muy de moda, como es la
recomendación de contenidos de Netflix. Esta empresa a diferencia de las empresas
tradicionales le interesa mantener tu fidelidad, para que a la final sigas pagando tu
suscripción, es por ello que su objetivo es mucho más difícil de conseguir, sin una innovación
constante de su contenido, pero también de su motor de recomendaciones. Este motor de
recomendaciones es realmente interesante ya que utiliza una arquitectura distribuida de redes
neuronales con GPUs hospedadas en AWS. Si alguien le interesa ver un poco más a detalle
este tema, dejo a continuación un enlace que me ha parecido de mucho interés desde la parte
técnica. https://medium.com/netflix-techblog/distributed-neural-networks-with-gpus-in-the-aws-
cloud-ccf71e82056b
Pero ¿por qué he traído a colación el tema de Netflix? Es conocimiento general que
nuevas y poderosas empresas entrarán a competir con el rey del streaming. Estas empresas
son Apple, y Disney. Como bien sabemos en el caso de Apple, son muy pocos los terrenos
donde incursiona y no se convierte en un éxito rotundo, por otra parte, tenemos la gran
calidad de contenidos que posee Disney. Creo que a futuro podremos ver una seria
competencia de los algoritmos de recomendación de contenidos de estas tres grandes
empresas y esto conllevará a la mejora sustancial de una aplicación tan antigua pero
poderosa del aprendizaje profundo como lo es la recomendación de contenido.
1
https://www.justwatch.com/es/proveedor/netflix
Hola Santigo.
Como mencionas y muy acertadamente, las aplicaciones para recomendar no pasan de
moda, pero actualmente, creo que ya no es tanto por el interes de hacer mas comoda la
vida a las personas, es por ganar terrerno en el mercado y es tal el abuso de estas
aplicaciones, que se empiezan a tornar hasta molestas. Ya no puedes navegar por la web
o revisar tu FB sin que te salten el monton de recomendaciones (anuncios) de productos
que en alguna ocasión buscaste o peor aún, estamos ya tan monitorizados que hasta de
las busquedas y visualizaciones que hacen tus conactos, te llegan a ti las
"recomendaciones".
Desafortunadamente se esta dando un mal uso a estas tecnologías que en un futuro lejos
de ser beneficas, serán un dolor de cabeza.
En el caso de Netflix, si bien es útil tener titulos recomendados con base en lo que has
visto, su actual falta de contenido de calidad incluso aquí en USA resulta de poca ayuda.
Pero esta es una oopinion muy personal, habrá quien opine lo contrario y es muy
respetable esa opinion.
Saludos!
Foro 11.
LUIS PAZ Y MIÑO ESPINOSA(jun 21, 2019 8:10 PM)- Leído por: 17
Foro 12
Existen soluciones que se plantea bajo el esquema de inteligencia artificial, pero cuando se
habla de inteligencia artificial estamos dando paso a una imagen de robot haciendo el trabajo
de los humanos, pero la realidad no se ajusta a este estereotipo, mas bien se piensa en datos,
estos datos son aquellos que se han dejado atrás de manera de histórico, estos datos son
necesarios y da un punto de vista diferente a los diversos factores que influyen en la toma de
decisiones.
se puede hablar en caso de cambio climático, consumo enérgico, si no también en aspectos
que están relacionados con la vida cotidiana y la sociedad, tanto a nivel físico como
psicológico, entre aspectos en función del negocio y la sincronización del transporte, entre
otros
La idea es que en lugar de basar nuestra decisión en las opiniones o sensaciones de políticos,
periodistas o incluso de expertos en la materia, podamos tener un dato que nos diga,
considerando todos los aspectos que influyen en la decisión y habiendo realizado una
baremación justa de todos estos aspectos, si al dejar de hacer el cambio de hora mejoraremos
un porcentaje X respecto a la situación actual.
Entonces, cuando haya pasado un año del cambio y hayamos tenido a esa Inteligencia
Artificial midiendo todos los parámetros que se tuvieron en cuenta para tomar la decisión,
podamos decidir si la decisión fue acertada, porque de media hayan mejorado los factores
sobre los que se tomaron las decisión o, por el contrario, hemos cometido un error y debemos
rectificar (como ocurrió entre 2015 y 2016 en Chile) para quedarnos como estábamos, pero
sabiendo que ahora contamos con una herramienta que en próximas ocasiones nos ayudará a
tomar mejores decisiones.
es tomar la decisión de empezar a utilizar el Big Data y la Inteligencia Artificial para esa toma
de decisiones, que a nivel de gobiernos conlleva unas connotaciones importantes, de manera
que la decisión final la acabará tomando un político, pero que sin embargo a nivel de gestión
pública y empresarial, sí que podría llegar tener una gran utilidad si se
deciden automatizar cierta toma de decisiones.
ya que en este punto puede existir dieversas criticas como aciertos a la hora de decir si es una
solución ocupar al 100% IA o de manera mas responzable y sabiendo en donde se puede
aplicar este concepto, se puede ver que;
La inteligencia artificial nos es muy útil para obtener predicciones cuando los patrones son
similares a otros que hemos visto con anterioridad. Si tengo datos de consumo eléctrico de
miles de días en el pasado, etiquetados convenientemente, puedo saber con un bajísimo nivel
de error cuál será el consumo del día 19 de septiembre, si conozco cuál fue el consumo del
día 18 y anteriores y además sé que se espera una temperatura media de 22,3 grados, es día
laborable, martes, y hay partido de Champions.
Pero aquí no hablamos exactamente de lo mismo. La decisión no depende únicamente de
datos de los que dispongamos hoy y no es fácilmente medible a priori. ¿Ahorran realmente las
empresas con el cambio de hora? ¿Compensa eso las molestias que supone el cambio a los
ciudadanos? ¿Es lógico cambiar en España la hora a su huso horario natural? ¿No es parte
de nuestra cultura el que anochezca más tarde? ¿Nos hará ese cambio más felices? ¿Más
productivos? ¿Cuántas empresas cambiarán sus políticas si pasamos al huso horario de
Greenwich? ¿Cuánta gente cambiará su costumbre de comer a las 14:30 h o más tarde?
Son preguntas que no creo que a día de hoy se puedan responder con IA de manera sencilla.
Hay análisis estadísticos que se pueden hacer sobre los datos que tenemos (y no olvidemos
que la IA al final es estadística con un nombre más sexy). Existen herramientas informáticas y
matemáticas para tratamiento de grandes volúmenes de datos y disponemos de una base
teórica bastante robusta alrededor de los Sistemas de Ayuda a la Decisión pero no
disponemos de una Inteligencia Artificial General que nos pueda responder esta pregunta hoy.
esto se debe dar un debate segun las caracteristicas de desarrollo de la inteligencia
artificial en donde se dar el cambio o no;
Hay dos vías de aplicación de la IA para toma de decisiones. Uno es el del razonamiento
inductivo, que es el típico usado en escenarios de Aprendizaje Automático (Machine Learning,
Minería de Datos…). Ello requiere de la existencia de (multitud de) casos de entrenamiento
para una función de decisión relativamente sencilla y bien aislada. Los sistemas de IA, a partir
de ejemplos, son capaces de sustituir a las personas en esas tareas.
La segunda vía es la del razonamiento deductivo. Consiste en desarrollar sistemas que
puedan emular el razonamiento humano, enlazando hechos, hipótesis y relaciones de
causalidad o de otros tipos, asimilables a los mecanismos del razonamiento lógico. Estos
sistemas pueden tener una base de Inteligencia General, o pueden incorporar el conocimiento
formalizado que manejan los expertos en el área del saber de que se trate. El objetivo es que
los sistemas de IA construidos de esta manera puedan sustituir a las personas en tareas
cognitivas similares.
Ninguna de las vías anteriores es de utilidad para un escenario de toma de decisiones como el
que propones. Sin embargo, este asunto del cambio de hora resulta una cuestión bastante
opinable. La IA permite, por ejemplo, recoger las opiniones espontáneas de los ciudadanos
expresadas a través de redes sociales. Las tecnologías de procesamiento de lenguaje natural
pueden automatizar el análisis de esas opiniones, incluyendo:
Foro 13.
3. Videos de vigilancia
El sistema de videovigilancia de hoy en día está impulsado por la IA que hace posible detectar
el crimen antes de que ocurra. Rastrean el comportamiento inusual de personas como estar
de pie sin moverse durante mucho tiempo, tropezándose o durmiendo la siesta en bancos,
etc. El sistema puede así alertar a los asistentes humanos, que en última instancia pueden
ayudar a evitar contratiempos. Y cuando dichas actividades se informan y se cuentan como
verdaderas, ayudan a mejorar los servicios de vigilancia. Esto sucede con el aprendizaje
automático haciendo su trabajo en el backend.
7. Recomendaciones de productos
Usted compró un producto en línea hace unos días y luego continúa recibiendo correos
electrónicos con sugerencias de compras. Si no es así, entonces es posible que haya notado
que el sitio web de compras o la aplicación le recomienda algunos artículos que de alguna
manera coinciden con su gusto. Ciertamente, esto refina la experiencia de compra, pero
¿sabías que el aprendizaje automático hace la magia por ti? Sobre la base de su
comportamiento con el sitio web / aplicación, compras pasadas, artículos gustados o
agregados al carrito, preferencias de marca, etc., se hacen las recomendaciones del
producto.
Hola Raúl me parece muy valioso tu aporte a este foro, porque de acuerdo a lo que he
podido investigar efectivamente los siete problemas que citas en tu exposición forman
parte del grupo de los múltiples problemas que se pueden resolver con la ayuda de IA sin
embargo solo faltaría especificar si en todos ellos se podrían resolver mediante el uso de
Deep Learning.
Saludos.
Foro 15
JUAN FERNANDO CHICA ORTIZ(jun 25, 2019 12:55 AM)- Leído por: 18
Saludos compañeros, resultan bastante interesantes las ideas que se han planteado en el
foro, en este caso les comparto una posible aplicación en las empresas un tanto salida de lo
común. En la inteligencia artificial, muchas de las técnicas que se han utilizado han sido
bioinspiradas, es decir que se han inspirado en el funcionamiento de sistemas de seres vivos.
Sin embargo, ello no conlleva a que utilizando la IA se pueda obtener información de un
sistema biológico. Por otra parte, en las empresas un interés muy grande siempre ha sido
entender que es lo que las personas quieren, algo como adentrarse en el cerebro de las
personas y ver sus pensamientos. Si bien esto aún no existe de forma comercial, existen
investigaciones que se están realizando para cumplir con esta tarea. Por ejemplo,
investigadores del Kamitani Lab de la Universidad de Kyoto (Japón) utilizaron técnicas
basadas en IA, particularmente Deep Learning para leer lo que una persona tiene en su
mente y reflejarlo en una imagen. El proceso de forma general fue, recopilar información de
varias personas cuando veían imágenes especificas y guardar por una parte la imagen
presentada y la actividad cerebral (usando fMRI), luego estos fueron los datos que se
utilizaron para entrenar el modelo de Deep Learning, el cual luego partiendo de la actividad
cerebral reconstruía las imágenes que la persona estaba pensando. A continuación dejo un
enlace a un video donde se muestra la imagen deseada y la obtenida con el modelo, así
como también el articulo científico.
https://www.youtube.com/watch?v=JHj0xaoW84k
https://www.biorxiv.org/content/10.1101/240317v2
Si bien no son reconstrucciones exactas, la investigación representa un gran avance en este
campo. Además como se menciono las empresas podrían hacer uso de esta tecnología en un
futuro para poder entender o plasmar exactamente lo que se imagina un cliente (por ejemplo
en el caso de un diseño o una construcción). Además un alcance a esta aplicación podría ser
lo que están realizando investigadores como Daniel Oldis y David M. Schyner en la
Universidad de Texas en Austin. Ellos pretenden reconstruir los sueños de una persona
utilizando un concepto similar. Esta aplicación podría ser utilizada por empresas para ofrecer
servicios de reconstrucción de sueños de las personas o incluso se podría utilizar esta
información de los sueños para realizar tratamientos psicológicos.
Articulo sobre las imagenes de los sueños: https://www.tendencias21.net/Filmar-los-suenos-
es-el-siguiente-objetivo-de-la-ciencia_a45264.html
Buenas compañero,
muy buena aportación, me ha parecido una idea genial. Lo que veo más difícil es llegar a
obtener un buen dataset, puesto que, el proceso sería difícil de automatizar.
Por otro lado, también se podría utilizar para saber qué quiere un bebé o alguien que no
entienda el idioma.
Saludos.
Saludos Compañero es muy interesante este tema, estuve leyendo y es un gran avance
tecnológico, un profesor de psicología, ciencias cognitivas y neurobiología llamado Marvin
Chu, no duda en calificarlo como una técnica para "leer la mente". Según Chun y su
equipo, la técnica puede mejorarse simplemente ampliando la base de datos de
resonancias magnéticas asociadas a determinadas caras. El equipo espera que la técnica
pueda ser de utilidad para investigar enfermedades como el autismo.
Los avances son sorprendentes
Foro 16
Nuevo Re: Ajuste de frecuencia para sordos parciales con Deep Learning
JOSE RAUL SHICSHI LUNA(jun 30, 2019 3:44 PM)- Leído por: 16
Foro 17
Nuevo Aplicaciones para la policía
ALEXIS DANNY ALVARADO ROMÁN(jun 29, 2019 10:05 AM)- Leído por: 21
Aplicar deep learning a tarea que realizan los policias es de gran ayuda, ya que permitiria
disminuir el numero de robos, asaltos.
Mencionare algunos ejemplos de utilidad sobre aplicaciones para este tipo:
Nota.- El último ítem se lo menciona, porque cuando una persona peligrosa se escapa de la
cárcel, normalmente, lo que hace es cambiarse de personalidad. Entonces por algún tatuaje o
cicatriz ser capaz de reconocerlo.
Saludos.
Creo que unas de las ayudas que mas esta dando resultados a la policía en cuanto a la
inteligencia artificial es el buscar patrones en un grupo de delincuentes para detectar
rostros de personas que regularmente pudieran tener muchos documentos falsificados
con diferentes nombres. Esto era un proceso que debía llevarse a cabo manualmente por
parte de personas entrenadas para esta labor y que podría llevar meses antes de poder
determinar las nuevas identidades de los delincuentes, pero hoy en día con el uso de
algoritmos cada vez mas eficientes se pueden hacer búsquedas y determinar
comportamientos que ayudan a las autoridades de a poder determinar los posibles paso
que puede dar un delincuente según sus patrones de comportamiento.
Hola Oscar.
Me parecio fabuloso esa idea.
Se podria tener un mayor control de los delincuentes y evitar posibles fugas.
Saludos.
Hoy en día la Policía puede beneficiarse enormemente de los beneficios que aporta la
Inteligencia Artificial, concretamente, Deep Learning, por ejemplo en shenzhen China, una
de las miles de cámaras, escanea la calle, analiza instantáneamente los rostros de todos
las personas que capta el sensor. Luego, una alerta: los algoritmos Deep Learning
encontraron una coincidencia con alguien sospechoso de la multitud. Los oficiales se
apresuran a la escena y lo llevan bajo custodia. Un poco de esta
novedad aquí: https://www.nbcnews.com/news/us-news/facial-recognition-gives-police-
powerful-new-tracking-tool-it-s-n894936.
Interesante enfoque Alexis,
Saludos Cordiales
, los policías usan gafas de reconocimiento facial para identificar a los delincuentes,
dichas gafas hacen peticiones
Hola Sixto.
Muchas gracias por tu comentario.Y si, si me intereso mucho esa metodologia que
llevan a cabo ese pais para el reconomiento de ladrones, profujos.
Saludos.
En algunas ciudades llamadas "Smart Cities" han adoptado puliticas publicas para hacer
inversiones en desarrollos tecnologicos para resolver problemas sociales, instlan una gran
red de videovigilancia que es minitoriado desde un centro de crisis donde agentes
policiales estan observando el comportameinto de los ciudadanos, pero no alcanzan a
analizar en tiempo real los eventos criticos o identificar patronrs de conducta delictiva; se
depende nuevamente del fallo humano; es aqui un campo de aplicacion muy propicio para
la aplicancion del aprendizaje automatico profundo que permita reacionar rapidamente y
evitar o mininizar el impacto negativo del crime en accion.
Hola Alexis.
Muy interesante. Es algo que creo que acabará ocurriendo.
Nuevo Re: Aplicaciones para la policía
JOSEP CHULVI CALATAYUD(jul 1, 2019 2:18 PM)- Leído por: 15
Yo leí hace un tiempo una noticia sobre una inteligencia artificial que era capaz de
predecir peleas con bastante antelación. Todo gracias a analizar los
comportamientos/gestos previos que la gente suele tener antes de lincharse entre ellos.
Puede ahorrar muchos disgustos en puertas de discotecas, locales y sitios públicos.
Increíble la verdad.
Este ejemplo en concreto detecta peleas ya empezadas, pero creo que sigue el mismo
método prácticamente:
https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-drone-learns-to-detect-
brawls
Hola.
Muchas gracias con cada uno de ustedes que han compartido ideas sobre deep learnign
para aplicaciones de las policias - seguridad.
Una sugerencias, comentarios y/o ideas mejor que la otra, pero todas interesantes.
Saludos.
Foro 18
ALEXIS DANNY ALVARADO ROMÁN (jun 29, 2019 10:05 AM) - Leído por: 21
Nota.- El último ítem se lo menciona, porque cuando una persona peligrosa se escapa de la
cárcel, normalmente, lo que hace es cambiarse de personalidad. Entonces por algún tatuaje
o cicatriz ser capaz de reconocerlo.
Saludos.
ANGEL GONZALEZ TEJEDOR (jun 30, 2019 12:00 PM) - Leído por: 17
Creo que unas de las ayudas que mas esta dando resultados a la policía en cuanto a la
inteligencia artificial es el buscar patrones en un grupo de delincuentes para detectar
rostros de personas que regularmente pudieran tener muchos documentos falsificados
con diferentes nombres. Esto era un proceso que debía llevarse a cabo manualmente por
parte de personas entrenadas para esta labor y que podría llevar meses antes de poder
determinar las nuevas identidades de los delincuentes, pero hoy en día con el uso de
algoritmos cada vez mas eficientes se pueden hacer búsquedas y determinar
comportamientos que ayudan a las autoridades de a poder determinar los posibles paso
que puede dar un delincuente según sus patrones de comportamiento.
OSCAR DONOSO PALOMEQUE (jun 30, 2019 5:15 PM) - Leído por: 16
El algoritmo asigna a los acusados una puntuación de riesgo basada en datos procedentes
de documentos relacionados con el caso en cuestión y el historial penal. Estos datos
incluyen, por ejemplo, el delito del que se les acusa, cuándo y dónde fueron detenidos y
el número y los tipos de condenas anteriores.
ALEXIS DANNY ALVARADO ROMÁN (jul 4, 2019 1:13 AM) - Leído por: 14
Hola Oscar.
Saludos.
SIXTO ROBAYO CAJAMARCA (jun 30, 2019 7:15 PM) - Leído por: 16
Hoy en día la Policía puede beneficiarse enormemente de los beneficios que aporta la
Inteligencia Artificial, concretamente, Deep Learning, por ejemplo en shenzhen China,
una de las miles de cámaras, escanea la calle, analiza instantáneamente los rostros de todos
las personas que capta el sensor. Luego, una alerta: los algoritmos Deep Learning
encontraron una coincidencia con alguien sospechoso de la multitud. Los oficiales se
apresuran a la escena y lo llevan bajo custodia. Un poco de esta novedad aquí:
https://www.nbcnews.com/news/us-news/facial-recognition-gives-police-powerful-new-
tracking-tool-it-s-n894936.
Saludos Cordiales
, los policías usan gafas de reconocimiento facial para identificar a los delincuentes,
dichas gafas hacen peticiones
Nuevo Re: Aplicaciones para la policía
ALEXIS DANNY ALVARADO ROMÁN (jul 4, 2019 1:16 AM) - Leído por: 14
Hola Sixto.
Muchas gracias por tu comentario.Y si, si me intereso mucho esa metodologia que
llevan a cabo ese pais para el reconomiento de ladrones, profujos.
Saludos.
ALVARO DENIS BEDOYA RUIZ (jun 30, 2019 11:08 PM) - Leído por: 15
En algunas ciudades llamadas "Smart Cities" han adoptado puliticas publicas para hacer
inversiones en desarrollos tecnologicos para resolver problemas sociales, instlan una
gran red de videovigilancia que es minitoriado desde un centro de crisis donde agentes
policiales estan observando el comportameinto de los ciudadanos, pero no alcanzan a
analizar en tiempo real los eventos criticos o identificar patronrs de conducta delictiva; se
depende nuevamente del fallo humano; es aqui un campo de aplicacion muy propicio
para la aplicancion del aprendizaje automatico profundo que permita reacionar
rapidamente y evitar o mininizar el impacto negativo del crime en accion.
JOSÉ JAVIER LARA JIMÉNEZ (jul 1, 2019 12:55 PM) - Leído por: 14
Hola Alexis.
Este ejemplo en concreto detecta peleas ya empezadas, pero creo que sigue el mismo
método prácticamente:
https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-drone-learns-to-
detect-brawls
ALEXIS DANNY ALVARADO ROMÁN (jul 4, 2019 1:20 AM) - Leído por: 14
Hola.
Muchas gracias con cada uno de ustedes que han compartido ideas sobre deep learnign
para aplicaciones de las policias - seguridad.
Una sugerencias, comentarios y/o ideas mejor que la otra, pero todas interesantes.
Saludos.
Foro 19
SIXTO ROBAYO CAJAMARCA (jun 30, 2019 6:45 PM) - Leído por: 15
Los dominios en los que se puede aprovechar el potencial del Deep Learning son incontables,
como es el caso de la optimización de recursos en plantas generadoras de electricidad,
vehículos autónomos, detección del cáncer de piel [1], juegos de mesa (Alpha Go), y la lista
continúa…, pero una de personal interés se denomina Human activity recognition (HAR)
with smartphone sensors [2]. Donde es posible aprovechar el sobresaliente desempeño de
las redes neuronales artificiales, tomando los datos arrojados por los sensores inerciales,
(giroscopio, acelerómetro y magnetómetro) y su combinación para la detección, análisis y
reconocimiento automático de la actividad humana.
En este documento [2], se propone una red neuronal convolucional profunda (convnet) para
realizar una HAR eficiente y efectiva utilizando sensores de teléfonos inteligentes mediante
el aprovechamiento de las características inherentes de las actividades y las señales de series
de tiempo 1D. Al mismo tiempo, proporciona una manera de extraer de forma automática las
características más robustas de los datos en bruto.
Otro enfoque [3] es aprovechar las prestaciones de Internet de las cosas (IoT) para el
reconocimiento de la actividad humana (HAR) mediante el monitoreo remoto de signos
vitales en el contexto de un sistema de atención médica para pacientes cardíacos crónicos
auto gestionados, haciendo uso de Smart Homes. El objetivo es crear un sistema HAR-IoT
utilizando algoritmos de aprendizaje profundo para inferir la actividad realizada en 4
categorías (mentir, sentarse, caminar y correr), así como el tiempo consumido en la
realización de estas actividades y, finalmente, dar retroalimentación durante y después de la
actividad.
A continuación, hago referencia al siguiente documento [4] y el siguiente enlace [5] donde
se cita otros dominios en los que se pude implementar El Reconocimiento de la Actividad
Humana mediante el uso del Deep Learnig.
Referencias:
[1] https://www.nature.com/articles/nature21056?TB_iframe=true&width=914.4&height=9
21.6
[2] Ronao, Charissa Ann and Cho, Sung-Bae, Human activity recognition with
smartphone sensors using deep learning neural networks.
[3] Rodriguez, Camilo & Castro, Diego & Coral, William & Cabra Lopez, Jose-Luis &
Velasquez, Nicolas & Colorado, Julian & Mendez, Diego & C Trujillo, Luis, IoT
system for Human Activity Recognition using BioHarness 3 and Smartphone.
[4] Lockhart, Jeffrey W and Pulickal, Tony and Weiss, Gary M. Applications of mobile
activity recognition.
[5] https://www.youtube.com/watch?v=Flm-kkCqACM&t=479s
Nuevo Re: Human Activity Recognition With Smartphone Sensors
ALEXIS DANNY ALVARADO ROMÁN (jul 4, 2019 1:26 AM) - Leído por: 14
Hola Sixto.
Muy buen aporte. Se ha visto que has hecho investigaciones y has compartido enlaces
excelentes.
Saludos.
KAREN HEREDIA VILLACIS (jun 30, 2019 4:37 PM) - Leído por: 14
Marcar como leído Responder
En Europa, hay ejemplos en España e Israel donde, a pesar del clima desértico han logrado
cultivar cítricos, apalancados en la tecnología apropiada para eso. En el caso de Argentina y
Brasil, ambos países tienen un alto nivel tecnológico en aspectos como siembra directa,
adopción de biotecnología, edición génica, entre otros.
Los productores de punta cuentan con muy buena información histórica acumulada en la
nube en muchos casos, big data, y están iniciando la explotación de esta información en
tecnologías como agricultura de precisión e IA. Ha habido muchos progresos en esta área,
pero aún no estamos en un nivel para hacer crecer exponencialmente las últimas
tecnologías.
OSCAR DONOSO PALOMEQUE (jun 30, 2019 4:56 PM) - Leído por: 14
Uno de los productos prometedores de esta aplicación son los objetos que se vuelven
invisibles al ser afectados por la luz. El Centro de Tecnología Nanofotónica de la
Universidad Politécnica de Valencia tiene un departamento encargado de investigar este
fenómeno y se encuentra en estudios para mejorarlo y aplicarlo en objetos de mayor medida
que a escala nanométrica.
Esta nueva tecnología es prometedora pero tiene algunos inconvenientes, como lo explica el
Dr. Haim Suchowski de la Escuela de Física y Astronomía de TAU en un estudio publicado
en la revista científica LIGHT: Science and Applications. El problema consiste en se
“adivina” la forma geométrica del metametal y se realiza su estudio usando las ecuaciones
de Maxwell. Sin embargo, esto ha sido poco favorable y demoroso pues necesitan invertir
mucho tiempo fabricándolo (debido a su geometría) y aun no sabrían cómo se comportará.
Aquí es donde entra Deep Learning. Los investigadores de la Universidad de Tel Aviv usan
redes neuronales para predecir la relación de nanoelementos con su forma geométrica y su
respuesta electromagnética al estímulo de la luz.
El modelo fue alimentado con 15.000 experimentos artificiales para enseñar a la red la
compleja y obtener los resultados adecuados. De esta manera pueden predecir si un
metamaterial se debería producir o no. Es más, detalla el Dr. Suchowski. “Demostramos que
una red de Deep Learning ‘entrenada’ puede predecir, en una fracción de segundo, la
geometría de una nanoestructura fabricada”.
Conclusiones: Deep Learning es una herramienta de gran poder. Sus aplicaciones pueden
extenderse infinitamente dependiendo de la necesidad y enfoque. Un invento como este
podría revolucionar el sector militar puesto que poseer un traje invisible.
Referencias:
WASHINGTON GIOVANNY AMANCHA PUNINA (jun 30, 2019 7:29 PM) - Leído por: 14
El Deep learning es una técnica concreta del machine learning, que permite el aprendizaje
profundo mediante modelos informáticos similares a las redes neuronales del cerebro
humano y que por tanto adquiere ese mismo nombre.
La aplicación fundamental del Deep Learning de manera general permite interpretar lo que
nos rodea a través del reconocimiento de imágenes o el análisis del lenguaje natural. Estas
funcionalidades se conocen como servicios cognitivos y es la vertiente más enfocada a
replicar las habilidades sensitivas de los seres humanos.
Desventajas
Un factor importante que se debe destacar en el Deep Learning es que para su desarrollo se
requiere de una gran capacidad de procesar altos volúmenes de información en aplicaciones
exitosas, lo que ha derivado en que los dispositivos empleados para dicho propósito, como
GPUs y CPUs multinúcleo requieran de gran cantidad de energía para su funcionamiento.
Recientemente, han surgido investigaciones enfocadas en buscar alternativas de hardware,
sobre el cual implementar las CNNs de forma eficiente, sobre todo para aplicaciones
embebidas. Una de estas alternativas son los Arreglos de Compuertas Programables en
Campo (FPGAs), que ofrecen la capacidad de procesamiento en paralelo espacial y temporal,
un menor tiempo de latencia y bajo consumo de potencia; lo que resulta ideal para ese tipo
de aplicaciones.
Ejemplo:
Aplicación de Deep Learning para la Detección de Peatones y Vehículos mediante una CNN
para clasificar imágenes de señales de tránsito vehicular, con el propósito de medir el tiempo
de entrenamiento y su desempeño en la clasificación.
Saludos Cordiales
JORGE ALFONSO MORALES SEGOVIA (jun 30, 2019 10:05 PM) - Leído por: 14
Saludos
Me parece una aplicación estupenda. Directa, clara, de rápida implantación (tienes todos
los datos!!), y con un retorno tanto funcional como económico muy rápido.
ANDRES ALBERTO GONZALEZ IBARRA (jun 30, 2019 11:12 PM) - Leído por: 14
Desde el inicio de los tiempos el planeta tierra a sufrido múltiples catástrofes de las
cuales muchas han sido tan grande que han dejado como consecuencia la extinción
masiva de especies. El se humano no ha sido ajeno a estos eventos ya sean de origen
natural o provocado por nosotros mismos. Si pudiéramos predecir terremotos con el
tiempo suficiente para informar a las personas y tomar las precauciones necesarias se
salvaría un numero incalculable de vidas. Por medio de Deep Learning podríamos
predecir estos eventos, no de una manera exacta, pero por lo menos algo aproximado,
actualmente contamos con la biblioteca de datos mas grande de todos los tiempos que es
la Nube, la cual suministraría la información que se introduciría a las redes neuronales
que nos permitiría sacar las predicciones de dichos eventos próximos a ocurrir.
EMILIO JAIME SÁNCHEZ GONZÁLEZ (jul 1, 2019 2:31 PM) - Leído por: 16
Como la compra y alquileres de vivienda están tan caros en las grandes ciudades y además
cada año o dos años los jóvenes cambian de piso al cambiar de trabajo. Se podría incluir
una línea de negocio de alquiler de habitaciones dentro de una misma casa, donde los
actuales inquilinos puedan saber acerca del nuevo inquilino, o para agilizar el proceso de
selección del dueño para con el nuevo inquilino.
Esto contendría un chatbot con el perfil psicológico de los usuarios de la casa donde quieres
alquilar o con un perfil predeterminado por el dueño.
Tendrías que ir hablando con el chatbot como paso preliminar a ser aceptada tu solicitud
para esa vivienda, esto agilizaría procesos de elección de inquilino he incluso
proporcionaría un respaldo legal para el dueño. Pues el posible inquilino, estaría dando
permiso para que se guarden en un perfil las respuestas e interacciones que realice con el
chatbot, cosa que después se podría presentar para rescindir el contrato.
Mediante procesamiento del lenguaje natural, podemos utilizar redes neuronales custom
para realizar la tarea de sacar información valiosa de la interacción mediante el chatbot, o
incluso de una transcripción de una llamada telefónica realizada entre el dueño y el cliente.
Un tema que me parece espectacular es como se usa el aprendizaje profundo por refuerzo
(DRL) para enseñar un comportamiento en un sistema virtual 3D, pudiendo luego exportar
el conocimiento a un robot real. Esto significa abrir un montón de puertas, ya que por poner
un ejemplo, pueden entrenar a drones para realizar tareas muy avanzadas sin tener que
gastar un dineral comprando y destruyendo los aparatos en cada entrenamiento. Lo mismo
se aplica para vehículos autónomos.
Para los interesados en este tema y quizá también en la IA para juegos, investigad sobre el
plugin de UNITY ML AGENTS, el cual es un entorno muy amigable para realizar infinitos
tipos de entrenamientos. Es posible hasta entrenar con las imágenes captadas por la cámara
del entorno 3D, que luego funcionarán perfectamente con imágenes reales.
https://www.youtube.com/watch?v=cCb2spFdtb0&t=2673s
La idea es crear una red neuronal para cifrar/descifrar archivos y poder utilizar los valores
de los pesos. Para ello, habría que sobre entrenar una única red neuronal con un numero
determinado de hidden layers y unos hiperparámetros específicos(que podrían servir como
clave). De esta forma entrenando una red neuronal con la entrada al fichero a encriptar y el
valor que queremos como resultado un fichero generado aleatoriamente.
De la misma manera, y haciendo el mismo proceso inverso, a partir del fichero generado
con caracteres al azar y con el valor de los hiperparámetros y pesos obtenidos en la red
neuronal para encriptar, se podría desencriptar.
Otra opción sería utilizar una CNN. Se entrenaría para convertir la clave en cada bloque
(de N-dimensiones) de datos, de modo que cada bloque de datos tenga su propia parte de de
la red entrenada. En cierto modo, las redes están sobre-ajustadas a los datos de entrada. Los
datos encriptados resultantes son los pesos de cada una de las conexiones.
Eso sí, se tendría que entrenar una red desde el principio para cada archivo a encriptar.
Nuevo Deep Learning
EDUARDO LUIS CALO VILLALVA (jul 1, 2019 3:25 PM) - Leído por: 15
El aprendizaje profundo y los modelos predictivos jerárquicos han sido más utilizados en el
área de los diagnósticos médicos y en análisis predictivos en los mercados financieros, pero
han ido cada vez adquiriendo más peso en el resto de los sectores como componentes
esenciales para detectar el fraude, sistemas de recomendación, predicción de abandono de
servicios, modelos de propensión, detección de anomalías o para auditoría de datos.
De aquí la idea de creación de redes neuronales artificiales, para realizar, tareas tan
complicadas como el reconocimiento de imágenes o la interpretación del lenguaje natural.
Reconocimiento de audio:
- Para poder publicar en redes sociales, enviar mensajes de correo, buscar en el navegador
sin necesidad de la escritura.
Predicción de comportamientos:
Ventajas
Optimización de la producción
Análisis de la competencia
El principal inconveniente del Machine Learning es que hay que guiar al programa en todas
las fases del sistema para que sepa identificar cada categoría automáticamente, por lo tanto,
esta modalidad necesita de un aprendizaje supervisado. Es decir, hay que reforzar el trabajo
de la máquina con el humano para que éste le proporcione la semántica necesaria para que
la misma trabaje, lo aplique en un futuro a los algoritmos y sea capaz de ejecutarlos
posteriormente sin intervención de la mano del hombre.
KAREN DIANA ESPINOZA GOMEZ (jul 5, 2019 12:11 AM) - Leído por: 13