编辑推荐
1 单词实用
单词+短语+句式+例句,全部来自电影、演讲和歌词,轻松掌握常用的表达,写作时自然文思泉涌。
2 语法透彻
文章结构+语法精讲+句型结构,牢固掌握写作基础知识,让你的写作水平脱颖而出!
3 模式创新
单词、文章,需要的不只是语法、词汇,更需要的是方法,分解写作法,极速提高写作能力!
4 例句地道
全部来自美国原汁原味的万能例句,句句经典、地道,经典写作材料,拿来就能用!
5 方法有效
内容流行时尚,结构简单明晰,分类精细详尽,主题丰富多彩,写作含金量大大提高。
内容简介
《英文写作看这本书就够了:用美国人的方法去写作》:
《英文写作看这本书就够了:用美国人的方法去写作》由4大部分组成,汇集名篇佳句、写作建议,其教授的写作方法独特、易学易懂,是一本独具创新的写作教材!语法精讲、单词详解、写作模板、写作建议,以脍炙人口的电影、歌词等流行元素为话题,便于活学活用,整体提高写作构思能力。总结写作中的标点符号的用法、经常出错的表达以及写作中不成文的规定,让你的表达更流畅!
《英文写作看这本书就够了:用美国人的方法去阅读》:
《英文写作看这本书就够了:用美国人的方法去阅读》特点:写作丰富:单词、句型、语法、翻译都会了,写作当然一举拿下!单词易学:
阅读中单词、短语不懂没关系,中英文对照+音标,让你随心所欲记单词!翻译精准:每篇文章全翻译,短语、句型、翻译技巧,一目了然,让你实战翻译,解决阅读难题。语法实用:全面解析文章重点语法,并配有专项练习,讲解+练习+测试,彻底击破语法难关!
作者简介
朴相俊,他拥有能够直击核心问题的授课能力以及高超的写作手法,是著名英文写作讲师。他获得了美国佛蒙特州Saint Michael's College TESL/TEFL的教育学硕士学位,现在是语言学院教材编写室的主任,而且还是TOEFL的聘用讲师。
郑意石 毕业于韩国外国语大学,获得了硕士学位,并且完成了多伦多大学的博士课程。他从很久以前开始就对语法书非常的关注,但是一直没有遇到合适的机会。他一直在很多大型并且有名的学院教授托业以及托福语法。本书中蕴含了他总结了10多年的语法秘诀。
李善玉,“剪枝解读法”创始人。毕业于高丽大学英语教育系,之后在英国萨里大学专攻TESOL。她首创“剪枝解读法”,此方法不仅能提高阅读文章的速度,还能轻松解决多个语法问题,深受好评。她获得了学生亲自选出的“最佳人气奖”,此后经多家媒体报道,开始接受众多学校和企业的邀请而进行讲学。
已出版
《无条件跟着做,英语阅读》
《剪权速读训练The Best Reading 50》系列
《GO SKY! Listening Final》
《TOEFL IBT NAVIGATOR Reading》
《阅读减肥基础篇/实战篇》
《Xpert TOEFL Reading/Listening》
内页插图
目录
《英文写作看这本书就够了:用美国人的方法去写作》
第一部分 英文写作的ABC-句子的基本构造
Unit 01 只有遵循一定的语序才能够组成一句话——英文的基本要素
主语+动词+宾语
Unit 02 用连词把多个句子连起来
单句、复句、并列句
Unit 03 虽然源于动词,但这只是它的表象——动词的谓语形式
动名词与动词不定式
Unit 04 动词?不能只是了解,必须学会使用
动词的语法
Unit 05 当连词遇到代词的时候
关系代词
Unit 06 不要只见树木不见森林
冠词
Unit 07 已经学习了,正在学习,还是将要学习?
时态
Unit 08 把单词适当地连接起来的“能手”
介词
Unit 09 句子中的逻辑
人称和数保持一致
Unit 10 帮你解决文章中重复出现的名词
指示代词
Unit 11 不是特定的,只是指代不确定的事物
不定代词
Unit 12 不是主语的错,主语是受害者!
被动式
Unit 13 根据内容来划分,英文的三种基本句型
陈述句、疑问句和祈使句
Unit 14 准确分清性质以及程度的差异
比较级
Unit 15 包容无限的想象世界
条件句
第二部分 清楚地了解一个单词,就能解决基础英文写作的问题!
Unit 01 know,记住“知道”这个意思,并应用
我仍然知道你去年夏天干了什么。
Unit 02 表示“这样”的such
爱情是(那样)容易的游戏。
Unit 03 “怎样”准确地使用how?
我只是想打电话告诉你,我(对你)是多么关心。
Unit 04 使用能够拯救句子感觉的主语
工作态度不能决定你会获得多少财富。
Unit 05 few&afew;,不是很多
如果你杀几个人,大家都会把你叫做杀人犯,(但是)如果杀害一百万人,你就是征服者。
Unit 06 contribute,在句子中表示“贡献”的意思
中国将以自身的发展促进世界的和平与发展。
Unit 07 life就是复活的live!
今天是你余生的第一天。
……
第三部分 44个英文写作模式,解决英文写作70%的问题
第四部分 给你的英文写作能力插上翅膀的27个语法
附录 英文写作建议
《英文写作看这本书就够了:用美国人的方法去阅读》
精彩书摘
在汉语中有很多情况,即使变换了语序,也是可以成为一句话的。虽然会有少许的意思上的差异,但是仍然是一句完整的话。但是在英语中,我们必须遵守语序。
“我吃饭”这句话,按照英语中的语序来排列,应该是下面这样。
主语+动词+宾语
(我+吃+饭)
即I eat rice.这样的顺序。
现在让我们再添加上“好吃的”这个单词。“好吃的”是形容词,所以用英语表示时用delicious这个形容词,而不能用deliciously。但是“好吃的”这一个形容词是修饰什么的呢?
“好吃的我?”“好吃的吃?”“好吃的饭!”
是的,放在“饭”这一个名词前边是比较自然的。那么用英语呢?也是相似的。
形容词放在名词前边
I eat delicious rice.
好像很有趣,让我们再做一次看看?
这次用“幸福地”来试一试。“幸福的”是形容词,“幸福地”是副词,所以在英语中应该使用副词happily,而不能使用形容词happy。那么这一个副词是修饰什么的呢?
“幸福地我?”、“幸福地饭?”、“幸福地吃!”。
是的,副词是用来修饰动词的。在英语中也与此相似。虽然有例外的情况,但是一般情况下都是这样的。
副词放在动词前边
I happily eat delicious rice.
最后让我们用“用勺子”来试一试。这是进行辅助说明的表达。那么这样的表达形式,在汉语中放在什么位置呢?
“用勺子我吃饭。”“我用勺子吃饭。”“我饭用勺子吃。”“我吃饭,用勺子。”
放在什么位置似乎都能讲得通。那么用英语来表示呢?
在英语中这样的表达形式,要放在句子的最前边或者最后边才行。但放在句子的最前的时候请加逗号。
附加说明(副词)要放在句子的前边或者后边
With a spoon,I happily eat delicious rice.
I happily eat delicious rice with a spoon.
……
前言/序言
在市面上有很多可以让人们学习英语表达的图书,学习起来趣味盎然,并且非常实用。但是即使非常认真地学习了这些书,熟悉了很多的表达方法,可到了真正写作的时候,读者发现自己连非常简单的句子也写不出来,这是为什么呢?很简单就是因为没有熟悉最基本的句子构造。
例如,虽然学习了会话书中的“Get out of here.(出去)”,“No kidding.(不要开玩笑了)”这样的句子,但是也有很多人写不出“虽然贫穷并不是一种羞耻,但是也不光荣”或者“我知道你去年夏天干了什么”这样的句子。“贫穷”就是poor,它是一个形容词,那么“贫穷的东西”要怎样表达?“羞耻”是shame,“光荣”是honor,单词大体上都知道,但是这样根本就不能组织成一句话。这是在我们国家接受了英语教育之后的人们出现的典型情况。虽然知道单词,但是根本不知道怎样把这些单词连接起来,也就是说,根本不清楚句子的基本构造。
英语句子的基本构造必须要通过语法来熟悉。但是在我们国家的英语教育课程中,大家学习的语法只不过是为了解决高考、托业、托福、以及全国英语等级考试中出现的问题,从而被动地学习语法。如果学习了真正的语法,肯定可以把一个句子写得非常完美,但是现实中却不是这样。希望大家摆脱为了考试而进行的语法学习,而为了实际的对话或者英文写作去学习语法。
好的,这是一份关于另一本图书的详细简介,旨在避免提及您提供的书名及其内容: --- 图书名称:《深度学习与自然语言处理实战指南》 内容简介 导言:开启智能文本处理的新纪元 随着人工智能技术的飞速发展,自然语言处理(NLP)已不再是遥不可及的未来概念,而是深刻影响着我们日常工作与生活的核心技术。从智能客服到机器翻译,从情感分析到文本生成,NLP的进步极大地拓宽了人机交互的边界。然而,要将这些前沿理论转化为实际生产力,需要扎实的理论基础与丰富的实战经验。《深度学习与自然语言处理实战指南》正是为有志于在这个领域深耕的读者量身打造的综合性教程。本书不仅全面梳理了NLP领域的核心概念,更侧重于如何利用现代深度学习框架,高效构建、训练和部署高性能的NLP模型。 第一部分:基础奠基——从传统方法到神经网络 在深入探索复杂模型之前,本书首先为读者打下了坚实的语言学和统计学基础。 1. 语言学基础与文本预处理: 详细介绍了文本的清洗、分词(Tokenization)、词干提取(Stemming)与词形还原(Lemmatization)等关键预处理步骤。着重讲解了如何处理多语言文本的特性,以及在不同应用场景下选择合适预处理策略的重要性。 2. 经典NLP模型回顾: 简要回顾了基于统计学和机器学习的传统方法,如隐马尔可夫模型(HMM)、条件随机场(CRF)在词性标注(POS Tagging)和命名实体识别(NER)中的应用。这部分内容有助于读者理解深度学习方法的创新之处。 3. 词向量的革命: 深入讲解了词嵌入(Word Embeddings)技术的原理与演进。内容覆盖了经典的Word2Vec(CBOW与Skip-Gram)、GloVe,直至更现代的FastText模型。重点剖析了如何通过这些向量表示,捕捉词汇的语义和句法关系,为后续的深度学习模型奠定输入基础。 第二部分:深度学习核心——循环与注意力机制 本部分聚焦于深度学习在处理序列数据方面的核心架构,这是现代NLP的基石。 1. 循环神经网络(RNN)的深入解析: 详细阐述了标准RNN的结构、梯度消失/爆炸问题,以及如何通过长短期记忆网络(LSTM)和门控循环单元(GRU)有效解决这些挑战。提供了在Keras/PyTorch框架下构建和训练这些序列模型的代码示例。 2. 序列到序列(Seq2Seq)模型与注意力机制: 探讨了Encoder-Decoder架构在机器翻译、文本摘要等任务中的应用。随后,本书用大量篇幅详细介绍了“注意力机制”(Attention Mechanism)的原理。读者将学习到如何设计和实现自注意力(Self-Attention)机制,理解其如何使得模型能够聚焦于输入序列中最相关的部分,从而大幅提升翻译和生成任务的质量。 第三部分:Transformer架构的统治地位与高级应用 Transformer架构的出现彻底改变了NLP领域。本书力求让读者不仅能使用,更能深入理解其内部运作机制。 1. 解构Transformer: 详尽剖析了原始Transformer模型的“多头注意力”(Multi-Head Attention)、位置编码(Positional Encoding)以及前馈网络结构。通过对比RNN和Transformer,清晰展示了并行化处理带来的效率提升。 2. 预训练模型的浪潮——BERT家族: 重点讲解了基于Transformer的上下文嵌入模型,特别是BERT(Bidirectional Encoder Representations from Transformers)的原理。内容包括掩码语言模型(MLM)和下一句预测(NSP)的训练目标。同时,介绍了RoBERTa、ALBERT等优化版本的关键改进点。 3. 模型的微调(Fine-Tuning)与下游任务: 提供了针对不同NLP任务(如文本分类、问答系统、命名实体识别)的微调范例。读者将学会如何根据特定任务的需求,高效地适配预训练模型,实现快速、高质量的模型部署。 第四部分:生成模型与前沿探索 本部分关注文本生成技术以及当前NLP研究的热点方向。 1. GPT系列与自回归生成: 探讨了以GPT(Generative Pre-trained Transformer)为代表的自回归模型,理解其在文本续写、故事创作等开放式生成任务中的优势。讨论了解码策略(如贪婪搜索、束搜索、Top-K/Nucleus Sampling)对生成文本质量的影响。 2. 知识增强与模型对齐: 引入了如何将外部知识库融入到NLP模型中的方法,以克服纯粹依赖文本训练带来的知识局限性。此外,还涵盖了当前非常重要的“人类反馈强化学习”(RLHF)在模型对齐方面的应用,确保生成内容的准确性与安全性。 实战工具与环境配置 本书的所有代码示例均基于Python 3,并兼容主流的深度学习框架(PyTorch和TensorFlow/Keras)。书中提供了详细的环境搭建指南,确保读者能够快速配置GPU环境,并运行书中的所有代码实例。每个章节末尾都附带了“动手实践”环节,引导读者在真实数据集上复现和修改模型,巩固所学知识。 目标读者 本书面向具备一定Python编程基础,希望系统学习深度学习在自然语言处理中应用的技术人员、在校学生,以及希望将前沿NLP技术应用于实际业务场景的工程师和数据科学家。通过本书的学习,读者将能够独立设计、实现并优化先进的NLP解决方案。 ---