Localización, big data e inteligencia artificial, germen del nuevo científico de datos IE Insights


En el capítulo 6 se discuten las limitaciones del análisis de datos, y finalmente el capítulo 7 reflexiona sobre el futuro de los datos y los algoritmos (p. 20-21). En este sentido, (Nunan y Di Domenico 2013, 3-6) establecen tres retos que los científicos sociales deben tener en cuenta en relación con el fenómeno del big data. Primero, los problemas tecnológicos asociados al almacenamiento, la seguridad y el análisis de crecientes volúmenes de datos. Finalmente, los impactos sociales, particularmente las implicaciones que el uso de datos tiene para la privacidad personal. La segunda es la minería de datos, cuya finalidad es encontrar patrones, incluso sin que estos fueran antes imaginados. Por último, la visualización de los datos, cuyo propósito es facilitar la comprensión de la información de manera clara y propiciar su socialización.

articulos cientificos de big data

Puesta en práctica del marco de las Naciones Unidas para «proteger, respetar y remediar», en los que se especifica que es responsabilidad de las empresas «abstenerse de infringir los derechos de terceros y hacer frente a las consecuencias negativas sobre los derechos humanos en las que tengan alguna participación» (2011, p. 15). Las empresas que realizan análisis de big data tienen la obligación y responsabilidad de proteger «los derechos humanos internacionalmente reconocidos que abarcan, como mínimo, los derechos enunciados en la Carta Internacional de Derechos Humanos» (2011, p. 15). Y no solo respecto a la curso de ciencia de datos protección de los derechos, sino que también en lo que respecta a las reparaciones por aquellas violaciones que pudieran haberse cometido en contra de los mismos. Además, «Si las empresas determinan que han provocado o contribuido a provocar consecuencias negativas deben repararlas o contribuir a su reparación por medios legítimos» (2011, p. 28). Tómese como ejemplo la Armada Electrónica Siria, que en 2011 utilizó cuentas de Facebook falsas, software de monitoreo y virus informáticos (como troyanos y malware) cuyo objetivo era conocer las prácticas de los disidentes del Gobierno (Nersessian, 2018, p. 848).

Enviar un artículo

Los investigadores determinaron las tasas de agrandamiento para diversos tipos de espumas y encontraron una estrecha concordancia con las predicciones teóricas. Una mejor comprensión de las propiedades de las espumas podría ayudar a los científicos a mejorar estas sustancias para una diversidad de usos, incluyendo el combate de incendios y el tratamiento del agua en el espacio, y la fabricación de detergentes, alimentos https://aquinoticias.mx/conviertete-en-un-cientifico-de-datos-exitoso-con-el-bootcamp-de-ciencia-de-datos-de-tripleten/ y medicamentos en la Tierra. La investigación Regeneración de tejidos – Defectos óseos (Investigación en Roedores 4, Centro para el Avance de la Ciencia en el Espacio, o CASIS), patrocinada por el Laboratorio Nacional de la EEI, examinó los mecanismos de cicatrización de las heridas en microgravedad. Los investigadores descubrieron que la microgravedad afectaba a los componentes fibrosos y celulares del tejido cutáneo.

  • La investigación logró evidenciar que el auge de la Datificación y el uso de herramientas tecnológicas de análisis de datos como Big Data, IA y ML, están transformando a las comunidades de los países de la región, lo que deriva en nuevas entidades digitales que tienden a mejorar su calidad de vida en los aspectos más notorios de la sociedad.
  • Cabe señalar que Joyanes expone que el uso del concepto de big data se remonta al año 1984 en el ámbito académico y a 1987 fuera de este (2013, p. 3).
  • El periodista debe saber buscar a través
    de Internet y, en particular, de las redes sociales para convertirlas en una de sus
    fuentes de referencia; mientras, el documentalista debe aprender a redactar noticias
    que sirvan como apoyo en el medio digital.
  • Se resalta que hay carencia de leyes que regulen cuestiones de protección y tratamiento de datos privados, especialmente en el campo tecnológico, lo cual se traduce en un reto de seguridad de información que debe ser atendido de forma interdisciplinar.

Por ejemplo, Smith y Smith (2020, 2) afirman que, el diseño futuro de fármacos antivirales SARS-CoV-2, ya está a cargo de un equipo europeo que utiliza el supercomputador de IBM equipado con el sistema AI SUMMIT para ser utilizado en tratamientos por COVID-19. El aprendizaje automático abre un sinnúmero de posibilidades de investigación en diversos campos clínicos, donde la COVID-19 ha sido el impulsor de ello. Esto involucra desde los escáneres faciales para identificación de síntomas como la fiebre, wearables para medición y detección de anomalías cardiacas o respiratorias, hasta chatbots que evalúan a un paciente cuando este menciona sus síntomas y, basado en las respuestas dadas, el sistema le indica si debe permanecer en casa, llamar al médico o ir al hospital.

Colombia Internacional

Con respecto a la pandemia del COVID-19 el sistema sanitario a nivel mundial demostró no dar abasto para realizar pruebas diagnósticas a corto plazo, sumado a problemas económicos, logísticos, de infraestructura tecnológica y falta de personal hospitalario. La IA está ayudado a minimizar estos problemas a través del uso de técnicas de aprendizaje profundo, mediante el reconocimiento de imágenes para pruebas de radiodiagnóstico que, a diferencia de las pruebas clínicas estándar, arroja resultados en pocos minutos, y en ellos se infiere si los pulmones de un paciente están o no enfermos por neumonía asociada específicamente con la COVID-19 (Öner, 2020). Esta especificidad radica en el hecho que mediante procesos de extracción de características morfológicas sobre el objeto de estudio (Márquez, 2019), se validan con respecto a patrones propios de otras enfermedades, estableciéndose factores de similitud, bien en cuanto a la geometría del tejido, lesiones en el mismo y variaciones de intensidad, entre otros. El aprendizaje profundo es un subcampo del aprendizaje máquina, que busca clasificar datos mediante algoritmos correlacionales. Se basa en ciertas arquitecturas de redes neuronales, que le permiten jerarquizar la información (visual, auditiva y escrita) mediante una segmentación de patrones categorizados por niveles.

La aparición de estas herramientas representa una de las características de este nuevo ciclo de la IA, presente en el mundo desde mediados de la década de los cincuenta. El big data constituye una gran revolución en la gestión de grandes volúmenes de datos y, fruto de ella, han surgido nuevas soluciones capaces de comportarse de manera autodidacta, sin necesidad de asistencia humana. Programas como AlphaGo de Google representan un paso adelante en la puesta en marcha de máquinas que consiguen capacidades sobrehumanas sin la intervención del hombre. Stacchi recuerda que el sistema científico actual se enfrenta a “la proliferación de revistas depredadoras o semidepredadoras” que publican cualquier estudio insustancial siempre que los autores paguen las correspondientes tasas. El cirujano insta a reforzar los sistemas informáticos para detectar inmediatamente imágenes repetidas o textos plagiados. En España, la entidad guardiana de la calidad de la universidad, la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA), está modificando los criterios de evaluación de los investigadores con el objetivo de dejar de juzgar sus publicaciones al peso.