Hablando con máquinas
| datacite.rights | http://purl.org/coar/access_right/c_abf2 | |
| dc.contributor.author | Yosa Reyes, Juvenal | |
| dc.date.accessioned | 2025-10-16T14:43:40Z | |
| dc.date.available | 2025-10-16T14:43:40Z | |
| dc.date.issued | 2025 | |
| dc.description.abstract | ¿Listo para conversar con el futuro? Hablando con máquinas te sumerge en el universo de la inteligencia artificial (IA), la tecnología que está cambiando la forma en que trabajamos, aprendemos y vivimos. Con explicaciones claras y ejemplos prácticos, este libro derriba barreras y elimina la complejidad que rodea al tema, de modo que cualquier persona, sin importar su formación previa, pueda explorar cómo funcionan los modelos de IA más avanzados. Te enseñará a interactuar con asistentes como ChatGPT, Gemini y Claude, y a descubrir el fascinante arte de crear prompts efectivos, que te permitirán liberar todo el poder creativo y analítico de estos sistemas. Te invitará también a viajar por la historia de la IA, explicará cómo se entrenan los modelos fundacionales y revelará el intrigante fenómeno de las “alucinaciones” que a veces surgen en los LLM, para que puedas reconocerlas de inmediato. Profundizarás en las redes neuronales y los transformers mientras aprendes a perfeccionar tus prompts usando técnicas como el aprovechamiento del historial de conversación, lo que hará que tus preguntas sean aún más claras y potentes. Además, descubrirás cómo estos métodos pueden estimular tu creatividad en la escritura, el diseño o la resolución de problemas, y de qué manera la IA está moldeando el futuro de la sociedad. Hablando con máquinas te convertirá en un usuario seguro y creativo en el mundo de la IA, mostrándote cómo estas herramientas pueden potenciar tu productividad, despertar tu ingenio y transformar tu forma de aprender. Prepárate para un futuro en el que hablar con máquinas será parte de la vida cotidiana, y únete a la revolución digital con esta guía esencial que te muestra cómo sacarle el máximo provecho a la tecnología que lo está cambiando todo. | spa |
| dc.format.mimetype | ||
| dc.identifier.isbn | 9786287852099 | |
| dc.identifier.uri | https://hdl.handle.net/20.500.12442/17031 | |
| dc.language.iso | spa | |
| dc.publisher | Ediciones Universidad Simón Bolívar | spa |
| dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 International | eng |
| dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | |
| dc.title | Hablando con máquinas | spa |
| dc.type.driver | info:eu-repo/semantics/book | |
| dc.type.spa | Libro | |
| dcterms.references | McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955, 31 de agosto). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence [Manuscrito no publicado]. Dartmouth College. http://www-formal.stanford.edu/jmc/ history/dartmouth/dartmouth.html | eng |
| dcterms.references | Turing, A. M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, Series 2, 42(1), 230–265. https://doi. org/10.1112/plms/s2-42.1.230 | eng |
| dcterms.references | Samuel, A. L. (1959). Some studies in machine learning using the game of checkers. IBM Journal of Research and Development, 3(3), 210–229. https://doi.org/10.1147/rd.33.0210 | eng |
| dcterms.references | Newell, A., Shaw, J. C., & Simon, H. A. (1956). The Logic Theory Machine: A complex information processing system. IRE Transactions on Information Theory, 2(3), 61-79. | eng |
| dcterms.references | Rosenblatt, F. (1957). The perceptron: A perceiving and recognizing automaton (Tech. Rep. No. 85-460-1). Project PARA, Cornell Aeronautical Laboratory. | eng |
| dcterms.references | Newell, A., Shaw, J. C., & Simon, H. A. (1959). Report on a general problem-solving program. En Proceedings of the International Conference on Information Processing (pp. 256-264). UNESCO. | eng |
| dcterms.references | Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. https://doi. org/10.1145/365153.365168 | eng |
| dcterms.references | National Research Council. (1966). Language and Machines: Computers in Translation and Linguistics (Report of the Automatic Language Processing Advisory Committee). National Academies Press. https://doi.org/10.17226/9547 | eng |
| dcterms.references | Minsky, M., & Papert, S. A. (1969). Perceptrons: An Introduction to Computational Geometry. The MIT Press. | eng |
| dcterms.references | Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536. https://doi.org/10.1038/323533a0 | eng |
| dcterms.references | Cortes, C., & Vapnik, V. (1995). Support-vector networks. Machine Learning, 20(3), 273-297. https://doi.org/10.1007/BF00994018 | eng |
| dcterms.references | Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30). | eng |
| dcterms.references | Herculano-Houzel, S. (2009). The human brain in numbers: A linearly scaled-up primate brain. Frontiers in Human Neuroscience, 3, Article 31. https://doi.org/10.3389/neuro.09.031.2009 | eng |
| dcterms.references | Raichle, M. E., & Gusnard, D. A. (2002). Appraising the brain’s energy budget. Proceedings of the National Academy of Sciences of the United States of America, 99(16), 10237-10239. https://doi. org/10.1073/pnas.172399499 de Vries, A. (2023). The growing energy footprint of artificial intelligence. Joule, 7(10), 2191–2194. https://doi.org/10.1016/j.joule.2023.09.004 | eng |
| dcterms.references | Schneider, J., Meske, C. & Kuss, P. (2024). Foundation Models: A New Paradigm for Artificial Intelligence. Business & Information Systems Engineering, 66, 221-231. https://doi.org/10.1007/ s12599-024-00851-0 | eng |
| dcterms.references | OpenAI. (2023). GPT-4 Technical Report (arXiv:2303.08774) [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2303.08774 | eng |
| dcterms.references | Radford, A., Kim, J. W., Hallacy, C., Ramesh, A., Goh, G., Agarwal, S., Sastry, G., Askell, A., Mishkin, P., Clark, J., Krueger, G., & Sutskever, I. (2021). Learning transferable visual models from natural language supervision [Preprint]. arXiv. https://doi.org/10.48550/ arXiv.2103.00020 | eng |
| dcterms.references | Ramesh, A., Pavlov, M., Goh, G., Gray, S., Voss, C., Radford, A., Chen, M., & Sutskever, I. (2021). Zero-shot text-to-image generation [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2102.12092 | eng |
| dcterms.references | OpenAI (s. f.). Whisper: Robust Speech Recognition via Large- Scale Weak Supervision. GitHub. https://github.com/openai/ whisper | eng |
| dcterms.references | Yang, Z., Wei, T., Liang, Y. et al. A foundation model for generalizable cancer diagnosis and survival prediction from histopathological images. Nat Commun 16, 2366 (2025). https://doi. org/10.1038/s41467-025-57587-y | eng |
| dcterms.references | AlSaad, R., Abd-alrazaq, A., Boughorbel, S., Ahmed, A., Renault, M.-A., Damseh, R., & Sheikh, J. (2024). Multimodal Large Language Models in Health Care. Journal of Medical Internet Research, 26, e59505. https://doi.org/10.2196/59505 | eng |
| dcterms.references | Naveed, H., Khan, A. U., Qiu, S., Saqib, M., Anwar, S., Usman, M., Akhtar, N., Barnes, N., & Mian, A. (2023). A comprehensive overview of large language models. arXiv preprint arXiv:2307.06435. https://arxiv.org/abs/2307.06435 | eng |
| dcterms.references | Dsouza, A., Glaze, C., Shin, C., & Sala, F. (2024). Evaluating language model context windows: A “working memory” test and inference-time correction. arXiv preprint arXiv:2407.03651. https:// arxiv.org/abs/2407.03651 | eng |
| dcterms.references | Kaufmann, T., Weng, P., Bengs, V., & Hüllermeier, E. (2023). A survey of reinforcement learning from human feedback. arXiv preprint arXiv:2312.14925. https://arxiv.org/abs/2312.14925 | eng |
| dcterms.references | Sahoo, P., Singh, A. K., Saha, S., Jain, V., Mondal, S., & Chadha, A. (2024). A systematic survey of prompt engineering in large language models: Techniques and applications. arXiv. https:// arxiv.org/abs/2402.07927 | eng |
| dcterms.references | OpenAI (2023). Introducing GPTs. https://openai.com/index/ introducing-gpts/ | eng |
| dcterms.references | OpenAI (2025). Introducing OpenAI o3 and o4-mini. https:// openai.com/index/introducing-o3-and-o4-mini/ | eng |
| dcterms.references | Guo, D. Et Al. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. arXiv. https://arxiv.org/abs/2501.12948. | eng |
| dcterms.references | Gupta, S., Ranjan, R., & Singh, S. N. (2024). A comprehensive survey of retrieval-augmented generation (RAG): Evolution, current landscape and future directions. arXiv. https://arxiv. org/abs/2410.12837 | eng |
| dcterms.references | Google Labs (2023). NotebookLM. https://notebooklm.google | eng |
| oaire.version | info:eu-repo/semantics/acceptedVersion |
Archivos
Bloque de licencias
1 - 1 de 1
No hay miniatura disponible
- Nombre:
- license.txt
- Tamaño:
- 2.93 KB
- Formato:
- Item-specific license agreed upon to submission
- Descripción:

